Históricamente, los humanos han sido mejores para reconocer rostros e imágenes que las computadoras, pero el advenimiento de las imágenes generadas por IA está lanzando una bola curva a los humanos, según un nuevo estudio que analiza cómo las personas perciben las imágenes falsas versus las reales.
Los expertos en tecnología han advertido que las imágenes hiperrealistas creadas por inteligencia artificial podrían conducir a la propagación de información errónea en línea y problemas de ciberseguridad. El mes pasado, por ejemplo, se produjo el pánico después de que una imagen generada por IA que parecía mostrar un Pentágono explotando se volviera viral, lo que hizo que el mercado de valores cayera brevemente en picada.
Investigadores en Australia estudiaron cómo los cerebros humanos perciben y diferencian imágenes realistas generadas por inteligencia artificial utilizando pruebas de comportamiento y experimentos de neuroimagen. El estudio involucró el reclutamiento de 200 personas de Amazon Mechanical Turk, un sitio de crowdsourcing propiedad de Amazon, para pruebas de comportamiento y 22 personas de la Universidad de Sydney para participar en pruebas de neuroimagen.
“A lo largo de la historia, los humanos han sido vistos como el punto de referencia para la detección de rostros. Hemos superado constantemente a las computadoras en el reconocimiento y la clasificación de rostros (aunque eso está cambiando)”, dijo a PsyPost el autor del estudio, Mike Mushel.
¿Quién te está mirando? La IA puede perseguir a las víctimas que no cumplen con ‘simplicidad y precisión’: los expertos

Los expertos en tecnología han advertido que las imágenes hiperrealistas creadas por inteligencia artificial podrían conducir a la propagación de información errónea en línea y problemas de ciberseguridad. (Imágenes falsas)
“Sin embargo, el advenimiento de la IA ha presentado un gran desafío para determinar de manera confiable si una cara se genera artificialmente. Este desarrollo nos intrigó y buscamos investigar cómo los humanos responden a las caras hiperrealistas generadas por IA, explorando específicamente la capacidad de distinción entre caras reales y reales.
Los investigadores produjeron las imágenes, que representan rostros, automóviles y dormitorios reales e irreales, utilizando redes neuronales artificiales llamadas redes antagónicas generativas (GAN). Las imágenes reales utilizadas en el estudio se tomaron de conjuntos de entrenamiento utilizados para GAN.
El presidente de OPENAI, Altmann, ha descrito lo que la IA “aterradora” significa para él, pero el chat tiene sus propios ejemplos.
Para la prueba de neuroimagen, los investigadores utilizaron electroencefalografía, que mide la actividad eléctrica en el cerebro mientras muestra a los participantes imágenes reales y falsas. Los participantes pudieron identificar que las imágenes poco realistas generadas por IA no eran reales, pero tuvieron dificultades para descifrar las imágenes realistas generadas por IA de las reales.

Para la prueba de neuroimagen, los investigadores utilizaron electroencefalografía, que mide la actividad eléctrica en el cerebro mientras muestra a los participantes imágenes reales y falsas. (Josep Lago/AFP vía Getty Images)
“Nuestros hallazgos revelaron que las personas pueden reconocer rostros generados por IA con solo un vistazo rápido. Sin embargo, distinguir rostros reales de rostros generados por IA es mucho más desafiante. Sorprendentemente, las personas a menudo parecen tener una tendencia a percibir erróneamente los rostros generados por inteligencia artificial como más auténticos. que caras reales”, según el estudio publicado por Vision Research.
¿Cuáles son los riesgos de la inteligencia artificial? Descubra por qué la gente le tiene miedo a la inteligencia artificial
La parte de prueba de comportamiento del estudio implicó mostrar a los participantes imágenes en rápida sucesión donde determinaron si la imagen era real o falsa en función de su impresión visual inmediata.
Los investigadores descubrieron que la actividad cerebral de los participantes podía identificar con precisión las imágenes de rostros generadas por IA el 54 % de las veces, mientras que la identificación verbal de las imágenes solo resultó en una precisión del 37 %.
El estudio dice: “Al examinar la actividad cerebral, identificamos una señal clara responsable de distinguir entre rostros reales y generados por IA. Sin embargo, la razón exacta por la que esta señal no se usa para guiar la toma de decisiones de comportamiento sigue siendo incierta”.

Los investigadores descubrieron que la actividad cerebral de los participantes podía identificar con precisión las imágenes de rostros generadas por IA el 54 % de las veces, mientras que la identificación verbal de las imágenes solo resultó en una precisión del 37 %. (iStock)
Las imágenes realistas pero falsas que muestran a líderes políticos y mundiales destacados ya se han vuelto virales este año, incluidas imágenes que muestran al expresidente Donald Trump siendo arrestado y al Papa Francisco con una chaqueta blanca acolchada.
¿Qué usamos realmente en la vida cotidiana?
“Cada vez es más posible crear rápida y fácilmente imágenes, videos, escritos y multimedia falsos y realistas que son prácticamente indistinguibles de la realidad. Esta capacidad se generalizará y tendrá profundas implicaciones para la seguridad cibernética, las noticias falsas, la detección de elusión y las redes sociales”. ”, escribieron los investigadores detrás del estudio. .
Desde que se lanzó ChatGPT el año pasado, las empresas de tecnología han estado compitiendo para construir sistemas de IA más potentes, pero los mismos líderes tecnológicos detrás de las plataformas también han advertido que la IA debe ser regulada para evitar la “extinción” humana.

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante una audiencia del Subcomité Judicial del Senado en Washington, D.C., el 16 de mayo de 2023. (GT)
Cientos de líderes tecnológicos, como el CEO de OpenAI, Sam Altman, y el CEO de DeepMind, Demis Hassabis, firmaron una carta abierta esta semana advirtiendo: “Mitigar los riesgos de extinción de la IA debería ser una prioridad global junto con otros riesgos sociales como las pandemias y la guerra nuclear”.
Altman y Sundar Pichai de Google han pedido repetidamente la regulación de la IA en las últimas semanas, y aunque señalan que la tecnología poderosa tiene la posibilidad de cambiar el mundo de manera positiva, los riesgos potenciales de la tecnología son algo que los líderes toman muy en serio.
Haga clic aquí para la aplicación FOX NEWS
“En términos de aspectos tanto positivos como potencialmente negativos, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro exponencialmente más próspero, pero tenemos que gestionar los riesgos para llegar allí”. dijeron otros ejecutivos de OpenAI en un comunicado publicado en un blog el mes pasado.