Expertos en tecnología identifican cuatro formas en las que la inteligencia artificial podría convertirse en desastres globales

Los expertos en tecnología, los multimillonarios de Silicon Valley y los estadounidenses comunes han expresado temores de que la inteligencia artificial pueda salirse de control y conducir a la caída de la humanidad. Ahora, los investigadores del Centro para la Seguridad de la Inteligencia Artificial han detallado exactamente qué riesgos “catastróficos” plantea la IA para el mundo.

“El mundo tal como lo conocemos no es normal”, escribieron investigadores del Centro para la Seguridad de la Inteligencia Artificial (CAIS) en un artículo reciente, “Una descripción general de los riesgos catastróficos de la IA”. “Consideramos que podemos hablar instantáneamente con personas a miles de kilómetros de distancia, viajar al otro lado del mundo en menos de un día y acceder a grandes montañas de conocimiento acumulado en los dispositivos que llevamos en el bolsillo”.

Esta realidad era “inconcebible” para la gente hace siglos y permaneció esquiva hasta hace unas décadas, informó el diario. Los investigadores notaron que había surgido un patrón en la historia a partir del “desarrollo acelerado”.

Los investigadores continuaron: “Pasaron cientos de miles de años entre el momento de la aparición del Homo sapiens en la Tierra y la revolución agrícola”. “Entonces fue miles de años antes de la Revolución Industrial. Y ahora, solo siglos después, ha comenzado la revolución de la IA. La marcha de la historia no es estática: se acelera rápidamente”.

CAIS es una organización de tecnología sin fines de lucro que trabaja para reducir los “riesgos sociales asociados con la IA mediante la realización de investigaciones de seguridad, la construcción del campo de investigadores de seguridad de la IA y la defensa de los estándares de seguridad”, al tiempo que reconoce que la IA tiene el potencial de beneficiar al mundo.

Los expertos advierten que la IA podría conducir a una “interrupción”

etiqueta de IA

Los expertos argumentan que la diferencia entre invertir en inteligencia artificial en China y Estados Unidos es el hecho de que el modelo estadounidense está impulsado por empresas privadas, mientras que China adopta un enfoque gubernamental. (JOSEP LAGO/AFP vía Getty Images)

Los líderes de CAIS detrás del estudio, incluido el director sin fines de lucro Dan Hendrycks, desglosaron cuatro categorías que resumen las principales fuentes de riesgo catastrófico de IA, que incluyen: uso malicioso, la carrera de IA en sí, riesgo regulatorio y sistemas de IA deshonestos.

“Al igual que con todas las tecnologías poderosas, la IA debe abordarse con gran responsabilidad para gestionar los riesgos y aprovechar su potencial para mejorar la sociedad”, escriben Hendrix y sus colegas Mantas Mazika y Thomas Woodside. “Sin embargo, hay información accesible limitada sobre cómo pueden ocurrir o abordarse los riesgos de IA catastróficos o existenciales”.

La carrera armamentista de próxima generación puede causar un evento de “interrupción”: ejecución técnica

uso nocivo

hacker de inteligencia artificial

Un hacker de inteligencia artificial detrás de la computadora. (Fox News)

El estudio de los expertos de CAIS define el uso malicioso de la IA como cuando una mala persona usa la tecnología para causar “daño generalizado”, como bioterrorismo, desinformación y propaganda, o la “difusión deliberada de elementos de IA sin censura”.

Los investigadores señalaron un incidente en Japón en 1995 cuando el culto del fin del mundo Aum Shinrikyo esparció un líquido inodoro e incoloro en los vagones del metro en Tokio. Liquid finalmente mató a 13 personas e hirió a 5.800 más en el intento del culto de desencadenar el fin del mundo.

Casi 30 años después, la IA podría usarse para crear un arma biológica que podría tener efectos devastadores en la humanidad si un mal actor se apodera de la tecnología. Los investigadores de CAIS propusieron una teoría hipotética en la que un equipo de investigación obtiene un “sistema de inteligencia artificial con capacidades de investigación biológica” destinado a salvar vidas, pero en realidad podría ser redirigido por malos actores para crear un arma biológica.

La IA podría convertirse en ‘Terminator’ y obtener el nivel más alto de mano humana en las reglas de la evolución darwiniana, advierte un informe

“En tales casos, el resultado puede ser decidido por un grupo de investigación menos adverso al riesgo. Si solo un grupo de investigación cree que los beneficios superan los riesgos, puede actuar unilateralmente, determinando el resultado incluso si la mayoría de los demás no están de acuerdo. Y si están equivocados y uno de ellos decide desarrollar un arma biológica, sería demasiado tarde para revertir el rumbo”, afirma el estudio.

El uso malicioso podría implicar que los malos actores creen epidemias modificadas biológicamente, usen la IA para producir armas químicas y biológicas nuevas y más poderosas, o incluso desencadenen sistemas de IA maliciosos entrenados para cambiar la vida.

Los investigadores sugieren que “para reducir estos riesgos, proponemos mejorar la bioseguridad, restringir el acceso a los modelos de IA más peligrosos y responsabilizar legalmente a los desarrolladores de IA por los daños causados ​​por sus sistemas de IA”.

carreras de IA

Mujeres e inteligencia artificial

Una mujer chateando con IA inteligente o inteligencia artificial usando un chatbot de IA desarrollado. (Imágenes falsas)

Los investigadores definen la carrera de la IA como una competencia que potencialmente incentiva a los gobiernos y las empresas a “acelerar el desarrollo de la IA y ceder el control a los sistemas de IA”, comparando la carrera con la Guerra Fría cuando Estados Unidos y la Unión Soviética se apresuraron a construir armas nucleares.

“El gran potencial de la IA ha creado presiones competitivas entre los jugadores globales que compiten por el poder y la influencia. Esta “carrera de la IA” está siendo impulsada por países y empresas que sienten que deben construir e implementar rápidamente sistemas de IA para asegurar sus posiciones y sobrevivir. riesgos, estos El dinamismo aumenta la probabilidad de que el desarrollo de la inteligencia artificial tenga consecuencias peligrosas”.

En el ejército, la carrera de la IA podría traducirse en “guerras más destructivas, la posibilidad de uso accidental o pérdida de control, y la posibilidad de que actores maliciosos exploten estas tecnologías para sus propios fines” a medida que la IA gana impulso como una herramienta militar útil. arma.

¿Cuáles son los riesgos de la inteligencia artificial? Descubre por qué la gente le tiene miedo a la inteligencia artificial

Las armas autónomas letales, por ejemplo, pueden matar a un objetivo sin intervención humana y, al mismo tiempo, simplificar la precisión y el tiempo de decisión. Las armas pueden volverse superiores a los humanos y los militares pueden delegar situaciones de vida o muerte a los sistemas de IA, según los investigadores, lo que podría aumentar el potencial de guerra.

“Aunque los robots que caminan y disparan aún no han reemplazado a los soldados en el campo de batalla, las tecnologías están convergiendo de maneras que pueden hacer que esto sea posible en un futuro cercano”, explicaron los investigadores.

Agregaron: “Enviar tropas a la batalla es una gran decisión que los comandantes no toman a la ligera. Pero las armas autónomas permitirán que un país agresivo lance ataques sin poner en peligro la vida de sus soldados y, por lo tanto, enfrentar menos escrutinio interno”, y señaló que si es políticos, los comandantes ya no necesitan asumir la responsabilidad de que los soldados humanos regresen a Sus hogares están en bolsas para cadáveres, los países pueden ver un aumento en el potencial de guerra.

La inteligencia artificial también puede abrir la puerta a ciberataques más precisos y rápidos que pueden destruir infraestructura o incluso iniciar una guerra entre naciones.

El documento propone ayudar a prevenir tales resultados para minimizar los riesgos causados ​​​​por la carrera de la IA, proponemos la implementación de normas de seguridad, coordinación internacional y supervisión pública de la IA de propósito general.

riesgo organizacional

imagen de IA

La inteligencia artificial está pirateando datos en un futuro próximo. (iStock)

Los investigadores detrás del artículo dicen que los laboratorios y los equipos de investigación que construyen sistemas de IA “pueden tener accidentes catastróficos, especialmente si no tienen una sólida cultura de seguridad”.

Los investigadores escribieron: “Los sistemas de IA pueden filtrarse accidentalmente al público o ser robados por actores malintencionados. Es posible que las organizaciones no inviertan en investigación de seguridad o no comprendan cómo mejorar de manera confiable la seguridad de la IA más rápido que las capacidades de la IA”. preocupaciones internas sobre los peligros de la inteligencia artificial”. .

Compararon las organizaciones de IA con desastres a lo largo de la historia, como Chernobyl, Three Mile Island y el accidente mortal del transbordador espacial Challenger.

Los expertos advierten que AI TECH es “más peligroso que el AR-15”

“A medida que avanzamos en el desarrollo de sistemas avanzados de IA, es importante recordar que estos sistemas no son inmunes a incidentes catastróficos. Un factor clave para prevenir incidentes y mantener bajos niveles de riesgo recae en las organizaciones responsables de estas tecnologías”, dijo el escribieron los investigadores. .

Los investigadores argumentan que incluso en ausencia de malos actores o presiones competitivas, la IA puede tener efectos catastróficos en la humanidad debido únicamente al error humano. En el caso del Challenger o Chernobyl, ya había un buen conocimiento de misiles y reactores nucleares cuando se produjo el caos, pero la IA en comparación con eso se entendía poco.

“La inteligencia artificial carece de una comprensión teórica integral, y su funcionamiento interno sigue siendo un misterio incluso para sus creadores. Esto presenta un desafío adicional para controlar y garantizar la seguridad de la tecnología que aún no entendemos por completo”, dijeron los investigadores.

Los incidentes de IA no solo serían catastróficos, sino que también serían difíciles de evitar.

Los investigadores señalaron un incidente en OpenAI, el laboratorio de inteligencia artificial detrás de ChatGPT, donde se entrenó un sistema de IA para producir reacciones para los usuarios, pero un error humano llevó al sistema a producir “texto de odio y sexualmente explícito de la noche a la mañana”. Las partes maliciosas que piratean un sistema o filtran un sistema de inteligencia artificial también pueden preparar el escenario para el desastre, ya que las entidades maliciosas reconfiguran los sistemas más allá de las intenciones del creador original.

La historia también ha demostrado que los inventores y los científicos a menudo subestiman la rapidez con la que los avances tecnológicos pueden convertirse en realidad, como la predicción de los hermanos Wright de un vuelo propulsado dentro de 50 años, cuando en realidad alcanzan ese ritmo dos años después de su predicción.

“El desarrollo rápido e impredecible de las capacidades de la IA presenta un gran desafío para la prevención de accidentes. Después de todo, es difícil controlar algo si ni siquiera sabemos qué puede hacer o hasta qué punto podría superar nuestras expectativas”, explicaron los investigadores.

Los investigadores sugieren que las organizaciones establezcan mejores culturas y estructuras para mitigar estos riesgos, como “auditorías internas y externas, múltiples capas de defensa contra riesgos y seguridad de la información de grado militar”.

IA rebelde

imagen de IA

Las palabras inteligencia artificial se muestran en esta infografía tomada el 31 de marzo de 2023. (Reuters/Dado Rovic/Ilustración)

Una de las preocupaciones más comunes con la inteligencia artificial desde que la tecnología ha proliferado en los últimos años es que los humanos pueden perder el control y que las computadoras están superando a la inteligencia humana.

‘KILL SWITCH’ AI hará que la humanidad sea menos segura, podría generar una superinteligencia ‘hostil’: Fundación AI

“Si un sistema de IA es más inteligente que nosotros, y si no podemos dirigirlo en una dirección beneficiosa, esto constituirá una pérdida de control que podría tener graves consecuencias. Controlar una IA es un problema más técnico que el presentado en las secciones anteriores ”, escribieron los investigadores.

Los humanos pueden perder el control al “jugar por proxy”, cuando los humanos le dan a un sistema de IA un objetivo aproximado que “al principio parece estar relacionado con el objetivo ideal”, pero los sistemas de IA “terminan explotando ese agente en formas que difieren del objetivo ideal”. objetivo” o incluso conducir a resultados negativos.

Los investigadores citaron un ejemplo de la Unión Soviética cuando las autoridades comenzaron a medir el desempeño de las fábricas de clavos en función de la cantidad de clavos que una fábrica era capaz de producir. Para superar o cumplir con las expectativas, las fábricas comenzaron a producir en masa pequeños tornillos que eran básicamente inútiles debido a su tamaño.

“Las autoridades intentaron remediar la situación cambiando el enfoque al peso de los clavos producidos. Pero poco después, las fábricas comenzaron a producir clavos gigantes que eran inútiles, pero les daban una buena calificación en el papel. De cualquier manera, las fábricas habían aprendido a manipular el agente objetivo que se les dio, sin lograr por completo su propósito previsto”, explicaron los investigadores.

Los investigadores sugieren que las empresas no implementen sistemas de IA con objetivos abiertos como “ganar la mayor cantidad de dinero posible” y apoyen la investigación de seguridad de IA que puede realizar investigaciones de malezas para prevenir desastres.

Haga clic aquí para la aplicación FOX NEWS

“Estos peligros son motivo de gran preocupación. Actualmente, muy pocas personas están trabajando para reducir los riesgos de la IA. Todavía no sabemos cómo controlar los sistemas de IA altamente avanzados, y los métodos de control existentes ya están demostrando ser insuficientes… a medida que las capacidades de inteligencia artificial continúan”. inteligencia sigue creciendo a un ritmo sin precedentes, pueden superar la inteligencia humana en casi todos los aspectos relativamente pronto, creando una necesidad urgente de gestionar los riesgos potenciales”, escribieron los investigadores en su conclusión.

Sin embargo, hay “varias medidas que podemos tomar para reducir significativamente estos riesgos”, como se describe en el informe.

Check Also

¿Qué calificación obtuvo el Apple Watch SE? Esto dice PROFECO – Enséñame de Ciencia

¿Qué calificación obtuvo el Apple Watch SE? Esto dice PROFECO – Enséñame de Ciencia

Los relojes inteligentes o smarcwatch, han ganado terreno y mucha popularidad en la población en …

Skip to toolbar