Sam Altman, director ejecutivo de OpenAI, dice que una carta firmada por el director ejecutivo de Twitter, Elon Musk, y otros miembros de la comunidad tecnológica que pedían una pausa en los “experimentos gigantes de IA” no era la forma correcta de abordar este problema.
Musk, Steve Wozniak y otros líderes tecnológicos firmaron la carta en marzo, en la que pedían a los desarrolladores de IA que “detuvieran inmediatamente, durante al menos 6 meses, el entrenamiento de sistemas de IA más potentes que GPT-4”.
Durante una aparición virtual en el MIT el jueves, Altman entregó el mensaje.
“Hay partes del enfoque con las que realmente estoy de acuerdo”, dijo Altman, y agregó que su equipo pasó más de seis meses después de completar la capacitación de ChatGPT 4 para estudiar los componentes de seguridad antes de su lanzamiento.
ELON musk se sienta con tucker carlson para un evento de entrevista exclusivo en dos partes

Sam Altman, CEO de OpenAI (Reuters/Lucy Nicholson, archivo)
“Entonces, estoy totalmente de acuerdo con eso”, dijo Altmann, hablando con el elemento de seguridad de la carta. “Creo que caminar con precaución y el mayor rigor de los problemas de seguridad es un mensaje realmente importante, no creo que sea la mejor manera de abordarlo”.
La carta fue escrita por el Future of Life Institute y firmada por más de 1000 personas.
La carta establece que “los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos serán manejables”, y señala que las pausas deben usarse para desarrollar protocolos de seguridad.
La carta establece que “AI Labs y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes”.
El cofundador de Apple, Elon Musk, y otros expertos en tecnología llaman a detener los ‘experimentos gigantes de IA’: ‘carrera arriesgada’

Elon Musk (Foto AP/Suzanne Walsh, archivo)
Sin embargo, las personas que firmaron la carta dijeron que el desarrollo de la inteligencia artificial en general no debe detenerse, pero pidieron “un paso atrás en la carrera peligrosa hacia modelos de caja negra más grandes e impredecibles con capacidades emergentes”.
En una entrevista en “Tucker Carlson Tonight” que se emitió el lunes por la noche, Musk dijo que la IA tiene el potencial de ser muy disruptiva.
Haga clic aquí para la aplicación FOX NEWS

El CEO de OpenAI, Sam Altman, habla durante un discurso de apertura que anuncia la integración de ChatGPT para Bing en Microsoft en Redmond, Washington, el 7 de febrero de 2023. (Jason Redmond/AFP vía Getty Images)
“La inteligencia artificial es más peligrosa que, digamos, un diseño de aeronaves mal administrado, mantenimiento de producción o producción de automóviles deficiente”, dijo Musk. “En el sentido de que tiene el potencial, no importa cuán pequeña sea esa posibilidad, pero no es insignificante, tiene el potencial de destruir la civilización”.
Chris Pandolfo de Fox News contribuyó a este informe.