Las compañías Anthropic, Google, Microsoft y OpenAI se reunieron para crear el “Frontier Model Forum”, un organismo para regular el desarrollo “seguro y responsable” de la inteligencia artificial.
A través de un comunicado, remarcaron que el objetivo de este foro será “avanzar en la investigación de seguridad de la IA” para “minimizar los riesgos potenciales”, identificar las “mejores prácticas de seguridad”, compartir el conocimiento y “aprovechar la IA para abordar los mayores desafíos de la sociedad”.
El creador de ChatGPT alertó al Congreso de EEUU sobre los riesgos de la inteligencia artificial
Para lograron, realizarán “evaluaciones técnicas” y tomarán “puntos de referencia” para desarrollar “una biblioteca pública de soluciones para respaldar las mejores prácticas y estándares de la industria”.
Además, buscan colaborar con legisladores, académicos, sociedad civil y empresas para “compartir conocimientos sobre riesgos de confianza y seguridad” de la inteligencia artificial.
“Los gobiernos y la industria están de acuerdo en que, si bien la IA ofrece una gran promesa para beneficiar al mundo, se requieren barandas adecuadas para mitigar los riesgos”, advirtieron.
En ese sentido, las compañías resaltaron que el foro “será un vehículo para debates y acciones entre organizaciones sobre seguridad y responsabilidad de la IA”, que se centrará en el primer año en tres áreas, entre “facilitar el intercambio de información entre empresas y gobiernos”.
La Unión Europea y EEUU crearán un «código de conducta» para regular la inteligencia artificial
El “Frontier Model Forum” invitó también a otras organizaciones que desarrollan modelos de IA a participar para participar de “iniciativas conjuntas” y “colaborar con el avance seguro de estos modelos”.