Por Monica Sager, de Newsweek
Un ex empleado de OpenAI ha recurrido a dos podcasts para abordar sus preocupaciones sobre la evolución de la inteligencia artificial (IA), así como sobre las personas que la controlan, incluido su exjefe, Sam Altman.
William Saunders habló en el podcast «Your Undivided Attention» del Center for Humane Technology en junio y luego, a principios de este mes, concedió una entrevista al periodista tecnológico Alex Kantrowitz. Saunders habló sobre los procedimientos del proceso de aprendizaje automático y cómo tiene «miedo de que las cosas no estén sucediendo correctamente» mientras que «no hay ningún ser humano que entienda» los verdaderos procesos detrás de la IA.
«Están en esta trayectoria para cambiar el mundo, pero cuando lanzan cosas, sus prioridades se parecen más a las de una empresa de productos», dijo Saunders a Kantrowitz, hablando de OpenAI. «La combinación de estas visiones es algo que me preocupa».
Saunders trabajó en OpenAI como miembro del personal técnico desde febrero de 2021 hasta febrero de 2024, según su página de LinkedIn. Trabajó en el equipo de superalineación, que es esencialmente la unidad encargada de controlar los sistemas de inteligencia artificial que algún día podrían ser más inteligentes que los humanos. Más tarde pasó a trabajar en la comprensión detrás de lo que se incluye en los grandes modelos de lenguaje (LLM) que impulsan sistemas como ChatGPT.
ChatGPT se volvió loco durante horas y genera alarma de cara al futuro
Saunders es uno de los 13 empleados anteriores y actuales de OpenAI y Google DeepMind que escribieron una carta, titulada “Derecho a advertir”, sobre la importancia de que las personas dentro de la comunidad de IA hablen sobre sus preocupaciones con respecto a la tecnología de rápido desarrollo.
Dejó su trabajo por lo que llamó problemas con la forma en que la empresa priorizaría los lanzamientos de productos por encima de las preocupaciones de seguridad y privacidad.
«Realmente no quería terminar trabajando para el Titanic de la IA, y por eso renuncié», dijo Saunders en el podcast de Kantrowitz. «Durante mis tres años en OpenAI, a veces me hacía una pregunta. ¿El camino que recorrió OpenAI se parecía más al programa Apollo, o más bien al Titanic?»
Saunders calificó los lanzamientos de productos de OpenAI como «muy inquietantes».
India desafía al CEO de Open AI y crea su propio ChatGPT por solo US$ 5 millones
Altman, cofundador y director ejecutivo de OpenAI que se ha convertido en la cara pública de la IA, insinuó recientemente sus planes para futuras iteraciones de ChatGPT. En una charla en el 20º Festival de Ideas de Aspen en Colorado, Altman dijo que el desarrollo de una IA cada vez más avanzada, incluida la AGI o inteligencia artificial general, es «inevitable».
Si bien Saunders dijo que no creía que estuviera «trabajando personalmente en el Titanic» en OpenAI, dijo que cree que las iteraciones futuras del chatbot, como GPT-5 o GPT-6, podrían ser similares al barco condenado, donde las preocupaciones de seguridad infamemente pasó a un segundo plano.
Milei se reunió con el creador de ChatGPT y apunta a desarrollar la IA en Argentina
Saunders dijo que hay «muchas compensaciones» que ocurren con el lanzamiento de nuevos productos. Si bien señaló que OpenAI retrasaría las fechas de lanzamiento para realizar investigaciones de seguridad adicionales, también hubo «múltiples casos» en los que «yo y otras personas de la empresa sentimos que había un patrón de ejercer más presión sobre los envíos y comprometer los procesos relacionados con la seguridad y «Problemas que sucedieron en el mundo y que se podían prevenir».
«Yo vería que estas decisiones se toman de una manera en la que se podría hacer trabajo adicional para mejorarlo, o hubo trabajo apresurado y no muy sólido, y esto se haría en cierto modo para cumplir con las fechas de entrega», dijo Saunders.
La gente, incluidos los ingenieros que los construyen, no entienden realmente cómo funcionan estos LLM, afirmó. La tecnología «todavía se encuentra en un lugar donde nadie, incluida la gente de OpenAI, sabe qué será capaz de hacer el próximo modelo de frontera cuando comiencen a entrenarlo o incluso cuando lo tengan».
Saunders hizo una analogía con un avión. Si una empresa está diseñando y construyendo aviones para vuelos cortos sobre tierra, pero luego decide volarlos sobre el océano, sería necesario probar el avión para ver si puede soportar esas condiciones específicas.
«Creo que hay una distinción realmente importante pero sutil entre poner el esfuerzo para prevenir problemas versus esforzarnos después de que ocurren», sostuvo. «Creo que los problemas serán tan grandes que no queremos ver el primer equivalente de IA a un accidente aéreo. No sé hasta qué punto podemos evitar esto, pero realmente me gustaría que hiciéramos nuestro mejor esfuerzo».
Los comentarios de Saunders se producen cuando OpenAI ha visto una reciente reorganización de su equipo de seguridad, con Altman ahora liderando personalmente la división junto con dos de los miembros de su junta directiva.
ChatGPT sopla su primera velita: cuál es su impacto en nuestro cerebro
Al mismo tiempo, Altman cofundó un nuevo Consejo de Ética de la IA como una especie de modelo de gobernanza de la IA no vinculante que también pretende garantizar que los sistemas de IA funcionen bajo un marco ético y que las comunidades tradicionalmente subrepresentadas tengan voz en la revolución tecnológica.
Saunders, por su parte, acusó a Altman de «tener un historial de comportamiento poco ético pero técnicamente legal». Cuando Altman fue destituido brevemente por la junta directiva de OpenAI en noviembre pasado, antes de regresar cinco días después, los miembros de la junta dijeron que habían perdido la confianza en él. «Lo que quería de OpenAI y lo que creía que OpenAI estaría más dispuesto a hacer era tomarnos el tiempo para hacerlo bien», afirmó Saunders, y concluyó: «Cuando sepamos que hay problemas con el sistema, descubramos cómo solucionarlos».
Publicado en cooperación de Newsweek