Un experto en IA con más de dos décadas de experiencia en el estudio de la seguridad de la IA dijo que una carta abierta que pide una moratoria de seis meses en el desarrollo de sistemas robustos de IA no es suficiente.
Eliezer Yudkovsky, un teórico de la decisión en el Instituto de Investigación de Inteligencia de Máquinas, escribió en un artículo de opinión reciente que la “pausa” de seis meses en el desarrollo de “sistemas de IA más potentes que GPT-4” defendida por el CEO de Tesla, Elon Musk, y cientos de otros innovadores y los expertos restan importancia a “la gravedad de la situación”. Irá más allá, implementando una prohibición de nuevos modelos grandes de aprendizaje de IA que son “indefinidos y mundiales”.
La carta, publicada por el Future of Life Institute y firmada por más de 1,000 personas, incluidos Musk y el fundador de Apple, Steve Wozniak, argumentó que los moderadores independientes deben desarrollar protocolos de seguridad para guiar el futuro de los sistemas de IA.
“Los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos pueden controlarse”, dice la carta. Yudkowsky cree que esto no es suficiente.
El cofundador de Apple, Elon Musk, y otros expertos en tecnología llaman a detener los ‘experimentos gigantes de IA’: ‘carrera arriesgada’

OpenAI ChatGPT visto en un dispositivo móvil con AI Brain en la pantalla, 22 de enero de 2023, en Bruselas. (Jonathan Ra/NurPhoto a través de Getty Images)
“El problema principal no es la inteligencia del ‘rival humano’ (como dice la carta abierta); es lo que sucede después de que la IA alcanza una inteligencia que es más inteligente que la humana”, escribió Yudkovsky para Newsweek.
Afirma que “muchos investigadores inmersos en estos temas, incluido yo mismo, predicen que el resultado más probable de construir una IA inteligente y sobrehumana, en algo tan remoto como las condiciones actuales, es que, literalmente, todos en la Tierra morirán”. No como en ‘tal vez alguna oportunidad lejana’ sino como en ‘eso es lo obvio que va a pasar’. “
IA ‘Padrino’ sobre la IA que acaba con los humanos: ‘Es increíble’

El CEO de OpenAI, Sam Altman, habla durante un discurso de apertura que anuncia la integración de ChatGPT para Bing en Microsoft en Redmond, Washington, el 7 de febrero de 2023. El nuevo modelo de aprendizaje GPT-4 de OpenAI es el sistema de IA más avanzado hasta la fecha y es capaz de crear, editar , , e iterando con los usuarios en tareas de redacción creativa y técnica. (Jason Redmond/AFP vía Getty Images)
Para Yudkowsky, el problema es que las IA más inteligentes que los humanos podrían desobedecer a sus creadores y no preocuparse por la vida humana. No pienses en un Terminator: “Imagina toda una civilización alienígena pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”, escribe.
Yudkowsky advierte que no existe un plan propuesto para lidiar con una superinteligencia que decide que la mejor solución para cualquier problema que se le encomiende es la aniquilación de toda la vida en la Tierra. También plantea preocupaciones que los investigadores de IA en realidad no saben si los modelos de aprendizaje se han vuelto “autoconscientes” y si es ético poseerlos si lo son.
Coalición Demócratas-Republicanos sobre Llamados para Regular el Desarrollo de la IA: “La Convención Debe Involucrarse”

Elon Musk, CEO de Tesla, SpaceX y Twitter, y más de 1000 líderes tecnológicos y expertos en IA están pidiendo una pausa en el desarrollo de sistemas de IA más fuertes que el GPT-4 de OpenAI, advirtiendo de los riesgos para la sociedad y la civilización. (Foto AP/Suzanne Walsh, archivo)
Él dice que seis meses no es tiempo suficiente para idear un plan. “Se necesitaron más de 60 años cuando la idea de la IA se propuso y estudió por primera vez para que pudiéramos alcanzar las capacidades actuales. Una solución de seguridad de superinteligencia, no seguridad absoluta, seguridad en el sentido de ‘literalmente no matar a todos’, podría tomar al menos la mitad de ese tiempo. razonablemente”.
En cambio, Yudkowsky propone la cooperación internacional, incluso entre competidores como Estados Unidos y China, para detener el desarrollo de poderosos sistemas de IA. Él dice que esto es más importante que “prevenir un intercambio nuclear completo”, y que los países deberían incluso considerar el uso de armas nucleares “si eso es lo que se necesita para reducir los riesgos de los grandes ejercicios de IA”.
Haga clic aquí para la aplicación FOX NEWS
“Cierren todo”, escribió Yudkovsky. “Apague todos los clústeres de GPU grandes (las grandes granjas de computadoras donde se optimizan los sistemas de IA más potentes). Cierre todos los ciclos de entrenamiento grandes. Limite la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA y muévalo hacia abajo a través de los años. Llegando a inventar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y ejércitos”.
La drástica advertencia de Yudkowsky se produce a medida que el software de inteligencia artificial continúa creciendo en popularidad. ChatGPT de OpenAI ha sido lanzado recientemente chatbot de inteligencia artificial que sorprendió a los usuarios con la capacidad de componer canciones, crear contenido e incluso escribir código.
“Tenemos que tener cuidado aquí”, dijo el CEO de OpenAI, Sam Altman, sobre la creación de su empresa a principios de este mes. “Creo que la gente debería estar feliz de que estemos un poco asustados por esto”.
Andrea Facciano de Fox News contribuyó a este informe.