El jefe de OpenAI, Altman, describió lo que la IA “aterradora” significa para él, pero ChatGPT tiene sus propios ejemplos

El CEO de OpenAI, Sam Altman, testificó ante el Congreso en Washington, D.C., esta semana sobre la regulación de la IA, así como sobre sus preocupaciones personales sobre la tecnología y lo que significan para él los sistemas de IA “aterradores”.

Fox News Digital también pidió al programa de chat ChatGPT de OpenAI que interviniera con ejemplos de IA “aterradoras”, informando sobre seis casos hipotéticos de cómo la IA podría convertirse en un arma o tener efectos potencialmente dañinos en la sociedad.

Cuando Fox News Digital le preguntó el martes después de testificar ante el Subcomité Judicial del Senado, Altman dio ejemplos de “inteligencia artificial aterradora” que incluye sistemas que pueden diseñar “nuevos patógenos biológicos”.

Continuó: “Inteligencia artificial que puede piratear sistemas informáticos”. “Creo que todos estos dan miedo. Estos sistemas pueden volverse muy poderosos, por eso estaba tan feliz de estar aquí hoy y por eso creo que esto es tan importante”.

El CEO de OPENAI, SAM ALTMAN, revela lo que cree que es “aterrador” sobre la inteligencia artificial

sam altman

El director ejecutivo de OpenAI, Sam Altman, habla con la prensa después de testificar ante el Subcomité Judicial del Senado el 16 de mayo de 2023. (Fox News)

Se ha extendido la preocupación entre algunos expertos y líderes tecnológicos, así como entre miembros del público, de que la inteligencia artificial podría volverse tan poderosa y con tanto conocimiento que podría acabar con la sociedad.

Por ejemplo, el científico informático Jeffrey Hinton, el “padrino de la inteligencia artificial”, advirtió el mes pasado que “no era irrazonable” que la IA “aniquilara a la humanidad”. el trabajo de la vida de Cómo abusar de la inteligencia artificial.

Sistema de armas independiente avanzado

Drones en China

Cuando se le preguntó acerca de ejemplos de “IA aterradora”, ChatGPT respondió: “Esos [autonomous weapon systems]a menudo denominados “robots asesinos” o “armas letales autónomas”, plantean preocupaciones éticas y el potencial de uso indebido o consecuencias no deseadas. (Costfoto/Future Publishing a través de Getty Images)

Tras los comentarios de Altman sobre la IA aterradora y otros líderes tecnológicos que hicieron sonar la alarma sobre el mal uso de la IA, Fox News Digital le pidió a ChatGPT el miércoles que proporcionara un ejemplo de “IA aterradora”.

El chatbot respondió: “Un ejemplo de una IA aterradora es un sofisticado sistema de armas autónomas que puede identificar y atacar objetivos de forma autónoma sin intervención humana”. Estos sistemas, a menudo denominados ‘bots asesinos’ o ‘armas autónomas letales’, plantean preocupaciones éticas y el potencial de uso indebido o consecuencias no deseadas.

ChatGPT dijo: “Imagine un escenario en el que un sistema de armas impulsado por IA esté programado con un conjunto de criterios para identificar y eliminar amenazas potenciales”. Si este sistema falla o termina en manos de malos actores, “podría conducir a ataques indiscriminados, causando destrucción generalizada y pérdida de vidas”.

El chatbot agregó que este era solo un ejemplo de “cómo la IA, si no se controla o guía adecuadamente por los valores humanos, puede tener repercusiones alarmantes”.

Deepfake

imagen de IA

Se ha extendido la preocupación entre algunos expertos y líderes tecnológicos, así como entre miembros del público, de que la inteligencia artificial podría volverse tan poderosa y con tanto conocimiento que podría acabar con la sociedad. (Reuters/Dado Rovic/Ilustración)

Fox News Digital le pidió al chatbot que proporcionara ejemplos adicionales de “IA espeluznante”, y el segundo ejemplo proporcionado fue “deepfakes”, que a menudo implica editar videos o fotos de personas para que se vean como otra persona que usa IA de aprendizaje profundo.

“Esta tecnología se puede usar para difundir desinformación, chantajear o manipular la opinión pública. Las falsificaciones profundas tienen el potencial de socavar la confianza, crear disturbios sociales y dañar la reputación”, dijo ChatGBT.

Deepfakes llegó al radar del público en 2017 después de que un usuario de Reddit publicara pornografía de celebridades de la vida real en la plataforma. Desde entonces, los deepfakes se han vuelto ampliamente utilizados y disfrazados, y han dado lugar a videos falsos, como el comediante Jerry Seinfeld protagonizando el clásico drama criminal “Pulp Fiction” o el rapero Snoop Dogg apareciendo en un anuncio de los medios de comunicación.

Los críticos dicen que la inteligencia artificial puede amenazar a la humanidad, pero el chat tiene sus propias predicciones del fin del mundo.

Monitoreo impulsado por IA

reconocimiento facial

ChatGPT también enumeró los sistemas de “vigilancia impulsada por IA” utilizados por malos actores, como “regímenes autocráticos”, como un ejemplo de “IA espeluznante”. (Colección Smith / Gado / Getty Images / Archivo)

Luego, el chatbot enumeró los sistemas de “vigilancia impulsada por IA” utilizados por los malos actores, como los “regímenes autoritarios”, como un ejemplo de “IA espeluznante”.

“El uso de inteligencia artificial en los sistemas de vigilancia puede generar preocupaciones sobre la privacidad y las libertades civiles”, dijo el chatbot. “Algoritmos avanzados de reconocimiento facial combinados con cámaras de vigilancia pueden permitir el seguimiento masivo y la identificación de individuos, lo que lleva a posibles abusos por parte de regímenes autoritarios o vigilancia invasiva de los ciudadanos”.

En los Estados Unidos, algunos departamentos de policía y empresas privadas han utilizado sistemas de reconocimiento facial impulsados ​​por IA en un esfuerzo por reducir la delincuencia. El uso de la tecnología ha tenido algunas fallas notables, incluido un puñado de demandas de personas que dicen que fueron arrestadas de manera fraudulenta cuando los sistemas identificaron erróneamente a un sospechoso en un caso de crimen.

Robots de ingeniería social

Amnistía Internacional

La inteligencia artificial enfrenta debates sobre la regulación. (iStock)

ChatGPT dijo que los chatbots en sí mismos representan una amenaza para la sociedad y las personas, argumentando que “los chatbots y los algoritmos de ingeniería social” pueden entrenarse para “manipular el comportamiento humano y explotar vulnerabilidades”.

“Estos bots se pueden usar para ataques de phishing, difundir propaganda o influir en la opinión pública a través de las plataformas de redes sociales, lo que amplifica el potencial de desinformación y división social”, dijo el chatbot.

Cuando se le pidió que explicara las amenazas que pueden representar los chatbots, ChatGPT dijo que esta tecnología tiene el potencial de simular conversaciones humanas e “interactuar de manera persuasiva con las personas”. Luego, los chatbots podrían “explotar las vulnerabilidades psicológicas” en los humanos mediante el análisis de sus reacciones, lo que podría resultar en la divulgación de información personal confidencial o la compra de información falsa de los bots, o los sistemas podrían “manipular las emociones humanas con fines maliciosos”.

El CEO de OPENAI, SAM ALTMAN, pide una regulación federal sobre inteligencia artificial

Desempleo y desigualdad económica

Línea postal de la ciudad de Nueva York

Hombres desempleados hacen fila para tomar café y bagels en un comedor de beneficencia en la ciudad de Nueva York alrededor de 1930. (FPG/Hulton Archive/Getty Images)

ChatGPT argumentó que a medida que los sistemas de IA se vuelven más poderosos, podrían hacerse cargo de los trabajos que normalmente ocupan los humanos, lo que podría ampliar la “desigualdad económica”.

“Hay preocupaciones sobre la pérdida de empleos y la creciente desigualdad económica”, dijo ChatGBT. “Los sistemas y robots impulsados ​​por IA que están reemplazando a los trabajadores humanos en varias industrias pueden provocar pérdidas significativas de empleos y malestar social si no se gestionan adecuadamente o no van acompañados de medidas para volver a capacitar y rehabilitar a la fuerza laboral”.

Un informe de Goldman Sachs a principios de este año encontró que la IA generativa podría resolver e impactar 300 millones de empleos en todo el mundo. Otro estudio de la firma de coaching externo y ejecutivo Challenger, Gray & Christmas descubrió que ChatGPT podría reemplazar al menos 4,8 millones de puestos de trabajo estadounidenses.

Los informes han causado cierta ansiedad entre los trabajadores, incluso en áreas que probablemente se verán afectadas por la tecnología, como los representantes de servicio al cliente, pero los defensores de la tecnología dicen que la propagación de la IA podría conducir al desarrollo de nuevos puestos de trabajo e impulsar la economía.

“Todo podría estar mal”, Sam Altman, CEO de OPENAI, ha declarado su mayor preocupación sobre la IA.

Sesgo y discriminación en inteligencia artificial

ChatGPT dijo que los sistemas de IA pueden perpetuar el sesgo y la discriminación en función de cómo están capacitados, lo que puede amplificar las “desigualdades sociales existentes”.

“Los sistemas de IA pueden perpetuar inadvertidamente los sesgos existentes en los datos en los que están entrenados, lo que lleva a resultados discriminatorios”, dijo ChatGPT. “Por ejemplo, los algoritmos sesgados en los procesos de contratación o los sistemas policiales predictivos pueden perpetuar los sesgos sistémicos y el trato injusto de ciertos grupos, amplificando las desigualdades sociales existentes”.

ChatGPT a veces puede “alucinar”, lo que significa que puede responder a una consulta con una respuesta que parece correcta pero que en realidad es inventada. Las preocupaciones sobre las alucinaciones y los sesgos políticos en los sistemas de IA han aumentado en los últimos meses, y el gigante tecnológico Elon Musk le dijo a Fox News el mes pasado que los programadores de Silicon Valley están “entrenando a la IA para que mienta”.

¿Quién es Sam Altman? El líder tecnológico detrás del OPENAI AI Lab

Truco del marcador de ChatGPT

ChatGPT a veces puede “alucinar”, lo que significa que puede responder a una consulta con una respuesta que parece correcta pero que en realidad es inventada. (Imágenes Getty/archivo)

ChatGPT destacó en sus respuestas sobre la “IA aterradora” que, si bien sus ejemplos resaltan “los posibles efectos negativos de la IA, también reflejan la importancia del desarrollo responsable, la regulación y las consideraciones éticas para mitigar estos riesgos y garantizar el uso beneficioso y seguro de la IA. tecnologías.”

El CEO de OPENAI, SAM ALTMAN, se enfrenta al comité del Senado a medida que aumenta la presión para regular la IA

Altman dijo durante una audiencia en el Senado el martes que su mayor preocupación con el desarrollo de inteligencia artificial de OpenAI es que causa interrupciones masivas y dañinas para las personas.

Sam Altman, CEO de OpenAI

El director ejecutivo de OpenAI, Sam Altman, toma asiento antes del inicio de una audiencia del Subcomité Judicial del Senado sobre IA, el martes 16 de mayo de 2023. (Bill Clark/CQ-Roll Call Inc. a través de Getty Images)

“Mi peor temor es que causemos demasiado: nosotros, en el campo, industria de la tecnología “Causar un gran daño al mundo”, dijo Altman. Creo que eso podría suceder de muchas maneras diferentes. Por eso empezamos la empresa”.

Agregó: “Creo que si esta tecnología sale mal, puede salir absolutamente mal, y queremos ser sinceros al respecto”. Queremos trabajar con el gobierno para evitar que eso suceda”.

Haga clic aquí para la aplicación FOX NEWS

Altman dijo durante la audiencia que invita la oportunidad de trabajar con los legisladores de EE. UU. en la redacción de regulaciones para la inteligencia artificial que ayudarían a prevenir resultados no deseados al usar la tecnología.

Check Also

Precio del dólar hoy martes 28 de noviembre. ¿Cómo amaneció el tipo de cambio en México? – Enséñame de Ciencia

Precio del dólar hoy martes 28 de noviembre. ¿Cómo amaneció el tipo de cambio en México? – Enséñame de Ciencia

Créditos de imagen: Enséñame de Ciencia El peso regresa a la baja. Como puede observarse …

Skip to toolbar