Por Lalo Zanoni
“Borges estaría muy contento con este debate sobre qué es realidad y que es ficción”, dice Rebeca Hwang y guiña un ojo para no dejar dudas de que conoce perfectamente a Borges pero también los códigos y gestos locales. Ella vive en San Francisco, California, pero habla un perfecto castellano porque, a pesar de haber nacido hace 51 años en Seúl, Corea, creció en Argentina. Después de terminar el colegio secundario en el Nacional Buenos Aires, se fue a estudiar al Massachusetts Institute of Technology (MIT) y a Stanford, en Estados Unidos, y se estableció allí definitivamente. Ahora es una reconocida emprendedora, elegida como una de las mujeres líderes globales por el Foro Económico Mundial. Además, da clases de creatividad en la universidad y administra fondos de inversión relacionados con negocios tecnológicos.
La semana pasada estuvo unos días en Buenos Aires para visitar a su familia y ofrecer una charla especial en la Fundación Osde sobre su tema preferido, que es el tema del momento: la inteligencia artificial (IA). Después de su keynote, habló a solas con Newsweek Argentina.
Por qué ChatGPT es el próximo gran superpropagador de desinformación
N-Pareciera que ahora todo es IA, todo el mundo habla de esto. ¿Cómo se ve el tema en Silicon Valley y que posibilidades hay de que haya una burbuja y se pinche?
-Hay una enorme excitación allá porque la IA, desde la aparición de ChatGPT, revitalizó mucho el entusiasmo y también los negocios. Después del tema cripto y el metaverso, hace un año estábamos todos hablando de lo mismo, ahora eso se frenó por distintos motivos. Entre otros, porque la gente no los adopta y no se puede generar negocios alrededor que justifiquen semejantes inversiones de dinero. Hubo muchos despidos en la zona del valle después de esos dos grandes temas que no lograron arrancar. Pero todo ese talento migró hacia la IA, y ahora la IA lo que hizo fue cambiar la narrativa.
Ahora la tendencia es “IA ciento por ciento”. No se habla de otro tema. Hay talento, dinero y entusiasmo real. Cambió la tendencia.
Y esto también genera mucho miedo por las posibles consecuencias negativas que la IA puede ocasionar.
-Estamos en la cúspide de lo que puede ser un punto de no retorno. Esta tecnología mal usada puede causar un desastre. Creamos la IA y los algoritmos para un uso y después terminan siendo usados para otra cosa. El cerebro humano es muy bueno para capturar información y somos buenos en conexiones, nodos, interpretaciones, lógicas, poder predecir, mediante millones de interacciones por segundo. Pero las máquinas aprenden más rápido, en segundos. Como en “Matrix”, que se ponían un pendrive y listo. Las computadoras hasta hace 10 años eran bebés y ahora ya están en condiciones para crear este presente que estamos viendo. Pero no tienen atributos que nosotros sí, como la lógica y el razonamiento, la empatía, la emoción. Pero, ojo, que esto es así hoy, pero en seis meses o en dos años, todo puede cambiar. Y este es el problema.
El creador de ChatGPT alertó al Congreso de EEUU sobre los riesgos de la inteligencia artificial
Todo el mundo -desde las empresas grandes como Google y Microsoft (OpenAI), empresarios, inversores y hasta gobiernos- coincide en que hay que regular la IA. Pero me parece que nadie sabe bien cómo hacerlo. ¿Cuál es tu opinión?
-Estoy de acuerdo con que hay limitaciones en los esfuerzos muy focalizados en regular esto, pero también entiendo que una mala regulación puede atrofiar la innovación. Y sabemos bien que lo que ocurre es que siempre la innovación de alguna manera sucede igual, ¿no? Se escapa, aunque se le quiera poner reglas.
Entonces para mí es mejor tratar de ser muy equilibrados en crear algunos principios básicos que respondan al “para qué” queremos usar estas tecnologías, cuál es el objetivo final. Puede haber una especie de test donde podamos determinar si, por ejemplo, el uso de data que viole cierto tipo de privacidad es aplicable y preguntarnos: ¿Es apropiado? ¿Para qué tipos de rubros?
Es obvio que manipular a un chico de 13 años a través de un chatbot y que una máquina hable con él tres horas por día y use esa información para venderle productos no es ético y está mal. Coincidimos todos. Ahora, si se usa la IA para, por ejemplo, usar toda esa información para crear mejores tratamientos para su salud, tratamientos personalizados que puedan curarlo de alguna enfermedad y salvarle la vida, entonces ahí estamos frente a temas distintos. Creo que es un debate que vale la pena dar.
¿Y de qué manera se puede dar ese debate?
-Creo que hay varios pasos. El primero es dar debates a un nivel abstracto, que haya una intención, un deseo de querer usar esta tecnología para hacer el bien. Lo dije en mi charla, hashtags como #AIforGood, hablar de humanidad, sustentabilidad. Todos debemos asumir compromisos éticos y de buenas prácticas. El segundo paso tiene que ver con la nomenclatura y la capacitación. Creo que los medios tienen que tener un acuerdo nuevo sobre qué palabras usar para cada cosa. ¿Esto es automatización o un aumento en la capacidad humana? ¿Es reemplazo del trabajo o potenciar los ya existentes? Esas elecciones del vocabulario van a determinar si tenemos una revolución social o tenemos adopción tecnológica.
Por qué el ChatGPT puede mejorar tu salud y salvarte la vida
Casi como refundar nuevas sociedades. ¿Hay tiempo para dar estos debates mientras la IA avanza exponencialmente cada día?
-No hay tiempo, es cierto, para discutir estos temas y en paralelo sancionar leyes formales. Pero sí hay tiempo para reforzar estos convenios morales y éticos y para entrenar a los emprendedores y a los usuarios sobre cómo debemos ser muy conscientes en el modo en que usamos estas tecnologías. En definitiva es hablar del bien y del mal, ¿no? Y creo que, en este caso puntual de la IA generativa, no podemos esperar más.
Todos los días deberíamos tener estas conversaciones en las organizaciones, en nuestras casas y cada uno en su lugar donde vive y trabaja. Capacitarnos y entender de que se trata. Es la única forma de estar alineados con esta nueva tecnología que aumenta cada día.
Puede encontrarse algún método concreto, una ley o reglamento que sea universal.
-Ese debate va a suceder a nivel internacional. EEUU, China y Rusia; estamos hablando de geopolítica muy pesada. Sabemos que China tiene otros estándares de privacidad. Mañana te pueden generar una base de datos y usarla en contra tuyo. A mí me crearon un bot sin mi permiso. Cualquier persona podía agregar al bot con mi nombre y mi cara a su WhatsApp y podía “dialogar” con Rebeca Wang. Y respondía como si fuera yo, en base a todos los textos, columnas, entrevistas y conferencias mías que están en la Web. Entonces la información que daba el bot ¡estaba bien, sonaba como si fuera yo! Increíble. Eso está muy mal, no es ético. Tendrían que haber pedido mi permiso para hacer eso.
Y también es válido arrepentirse de algo después de dar un consentimiento, ya que son cosas nuevas que todavía se desconocen sus efectos y consecuencias.
-El arrepentimiento es un sentimiento humano válido. Estas son todas discusiones que hay que dar. La información y la data ya la tienen, ya está en la web. Cualquiera la puede usar y armar un bot con nuestro nombre.
Por último, ¿cómo ve usted el rol de la política en este nuevo escenario?
-Eventualmente los políticos serán los que creen las limitaciones, los derechos, etc. Durante las campañas políticas tiene que haber consecuencias tanto económicas como legales frente al mal uso de la IA. Ellos son los que van a tener que decidir si usar o no la información para manipular. Entonces, en una campaña deberían comprometerse éticamente tanto oficialistas como opositores a no usar la IA en contra de los intereses de la gente y a favor de los suyos. Y después, durante la gestión de los gobiernos, la capacitación tiene que ser constante. En general hay mucho desconocimiento.