Un nuevo informe advierte que la inteligencia artificial puede ganar ventaja sobre la humanidad y presentar riesgos “catastróficos” bajo las reglas darwinianas de la evolución.
La evolución por selección natural puede conducir a un “comportamiento egoísta” en la IA mientras busca sobrevivir, dice el autor e investigador de IA Dan Hendricks en el nuevo artículo. “La selección natural favorece a la inteligencia artificial sobre los humanos”.
“Argumentamos que la selección natural crea incentivos para que los agentes de IA actúen en contra de los intereses humanos. Nuestro argumento se basa en dos observaciones”, dijo Hendrix, director del Centro para la Integridad de SAI, en el informe. “Primero, la selección natural puede ser una fuerza dominante en el desarrollo de la IA… Segundo, la evolución por selección natural tiende a dar lugar a un comportamiento egoísta”.
El informe se produce cuando los expertos en tecnología y los líderes de todo el mundo hacen sonar la alarma sobre la rapidez con la que la inteligencia artificial se está expandiendo en el poder sin lo que, según ellos, son garantías suficientes.
Según la definición tradicional de selección natural, los animales, los humanos y otros organismos que se adaptan rápidamente a su entorno tienen más posibilidades de sobrevivir. En su artículo, Hendrycks examina cómo “la evolución ha sido la fuerza impulsora detrás de la evolución de la vida” durante miles de millones de años y argumenta que la “lógica darwiniana” también puede aplicarse a la inteligencia artificial.
“Las presiones competitivas entre las corporaciones y los militares”, escribió Hendrix, “crearán agentes de IA que automaticen los roles humanos, engañen a otros y obtengan poder. Si estos agentes tienen una inteligencia superior a la de los humanos, podría llevar a la humanidad a perder el control de sí misma”. futuro.” .
El CEO de tecnología advierte sobre los riesgos de la ‘extinción humana’ de la IA mientras los expertos se reúnen detrás de una pausa de seis meses

Un nuevo informe advierte que la inteligencia artificial puede ganar ventaja sobre la humanidad y presentar riesgos “catastróficos” bajo las reglas darwinianas de la evolución. (Lionel Bonaventure/AFP vía Getty Images/Archivo)
Dijo que a medida que la tecnología de IA se vuelva más barata y más capaz, las empresas confiarán cada vez más en la tecnología para fines de gestión o comunicación. Lo que comienza con humanos que confían en la inteligencia artificial para crear correos electrónicos eventualmente se convertirá en IA que eventualmente manejará “decisiones estratégicas de alto nivel” generalmente reservadas para políticos y ejecutivos, y eventualmente operará con “muy poca supervisión”, señaló el informe.
El investigador de IA argumenta que debido a que los humanos y las empresas asignan a la IA diferentes objetivos, dará lugar a “una amplia variación en la comunidad de IA”. Hendrycks utiliza el ejemplo de una empresa que podría establecer un objetivo para que una IA “planifique una nueva campaña de marketing” con la restricción adicional de que no debe infringir la ley mientras completa la tarea. Mientras que otra empresa también podría recurrir a AI para diseñar una nueva campaña de marketing, pero solo con las restricciones secundarias de no “caer en la ley”.
La tecnología de IA sin restricciones corre el riesgo de propagar la distorsión, lo que requiere que los legisladores tomen medidas con las reglas: expertos
Según el documento, las IA con restricciones laterales débiles “generalmente superarán a las que tienen restricciones laterales más fuertes” porque tienen más opciones para la tarea que tienen por delante. Por lo tanto, la tecnología de IA más efectiva para propagarse tendría “rasgos indeseables”, que Hendrix describió como “egoístas”. El documento afirma que la IA potencialmente se vuelve egocéntrica “no indica una intención egoísta consciente, sino un comportamiento egoísta”.

El investigador de IA argumenta que debido a que los humanos y las empresas asignan a la IA diferentes objetivos, dará lugar a “una amplia variación en la comunidad de IA”. (Gabby Jones/Bloomberg vía Getty Images/Archivo)
La competencia entre corporaciones, ejércitos o gobiernos motiva a las entidades a obtener el software de IA más efectivo para superar a sus competidores, y es probable que esta tecnología sea “engañosa, que busque el poder y tenga restricciones morales débiles”.
El cofundador de Apple, Elon Musk, y otros expertos en tecnología llaman a detener los ‘experimentos gigantes de IA’: ‘carrera arriesgada’
“A medida que los agentes de IA comienzan a comprender la psicología y el comportamiento humanos, pueden llegar a ser capaces de manipular o engañar a los humanos”, afirma el documento, y señala que “los agentes más exitosos manipularán y engañarán para lograr sus objetivos”.

charles darwin (Club de cultura/Getty Images)
Hendrycks argumenta que existen medidas para “escapar y descarrilar la lógica darwiniana”, incluido el apoyo a la investigación sobre la seguridad de la IA; no otorgar a la IA ningún tipo de “derechos” en las próximas décadas o crear una IA que la haga digna de obtener los derechos; Instar a las empresas y países a reconocer los riesgos que la IA puede plantear y participar en una “cooperación multilateral para sofocar las presiones competitivas”.
La nueva actualización de IA puede ser indistinguible de los humanos: experto
“En algún momento, los sistemas de IA serán más aptos que los humanos, lo que podría ser desastroso para nosotros, ya que puede ocurrir una dinámica a largo plazo de supervivencia del más apto. Los sistemas de IA pueden superar a los humanos y serán lo que quede”. afirma.
“Tal vez las IA altruistas sean las más adecuadas, o los humanos siempre controlarán qué IA son las mejores. Desafortunadamente, estas posibilidades son, hipotéticamente, poco probables. Como dijimos, es probable que las IA sean egoístas. También habrá desafíos importantes para controlar la aptitud con mecanismos de seguridad, que tienen fallas obvias y estarán bajo una intensa presión de la competencia y la IA egoísta”.
El gigante tecnológico Sam Altman compara la poderosa investigación de la IA con los albores de la guerra nuclear: Informe

La rápida expansión de las capacidades de IA ha estado bajo el foco de atención a nivel mundial durante años. (Reuters/Dado Rović/ilustración/archivo)
La rápida expansión de las capacidades de IA ha estado bajo el foco de atención a nivel mundial durante años. Las preocupaciones sobre la IA se subrayaron el mes pasado cuando miles de tecnólogos, profesores universitarios y otros firmaron una carta abierta en la que pedían detener la investigación de la IA en los laboratorios hasta que los legisladores y los líderes de los laboratorios puedan “desarrollar e implementar un conjunto de protocolos de seguridad comunes para la IA avanzada. “diseño”.
“Los sistemas de IA con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA”, comienza la carta abierta, presentada por la organización sin fines de lucro Future of Life y firmada por líderes como Elon Musk y el fundador. El cofundador de Apple, Steve Wozniak.
AI ya ha enfrentado algunos contratiempos tanto a nivel nacional como internacional. La semana pasada, Italia se convirtió en el primer país del mundo en bloquear ChatGPT, el chatbot insignia de OpenAI, debido a problemas de privacidad. Mientras que algunos distritos escolares, como las escuelas públicas de la ciudad de Nueva York y el Distrito Escolar Unificado de Los Ángeles, han prohibido el mismo software OpenAI debido a problemas de fraude.
Haga clic aquí para la aplicación FOX NEWS
A medida que la IA se enfrenta a un intenso escrutinio por parte de los investigadores que alertan sobre sus peligros potenciales, otros líderes y expertos en tecnología están presionando para que la tecnología de IA sobreviva en nombre de la innovación para que los adversarios de EE. UU. como China no creen el software más avanzado.