Según un nuevo estudio realizado por investigadores del Instituto Tecnológico de Massachusetts, la IA no logra emparejar a los humanos en las llamadas de los árbitros y es más probable que emita sanciones y castigos más severos para quienes infrinjan las reglas.
El hallazgo podría tener ramificaciones en el mundo real si se utilizan sistemas de inteligencia artificial para predecir la probabilidad de que se vuelva a cometer un delito, según el estudio, lo que podría resultar en sentencias de prisión más largas o fianzas más altas.
Investigadores de la Universidad de Massachusetts, así como de universidades canadienses y organizaciones sin fines de lucro, estudiaron modelos de aprendizaje automático y descubrieron que cuando la IA no está debidamente entrenada, toma decisiones de juicio que son más severas que los humanos.
Los investigadores crearon cuatro configuraciones de código predeterminadas para crear escenarios en los que las personas podrían infringir las reglas, como albergar a un perro agresivo en un complejo de apartamentos que prohíbe ciertas razas o usar malas palabras en una sección de comentarios en línea.
Luego, los participantes humanos etiquetaron las imágenes o los textos, y sus respuestas se usaron para entrenar los sistemas de IA.
dijo Marzieh Ghasemi, profesora asociada y directora del Healthy ML Group en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.
“Estos modelos ni siquiera producen juicios humanos realmente sesgados porque los datos con los que están entrenados son defectuosos”, dijo Ghasimi. “Los humanos etiquetarán las características de las imágenes y el texto de manera diferente si saben que estas características se utilizarán en el juicio”.
Musk advierte sobre el impacto de la inteligencia artificial en las elecciones y pide la censura de EE. UU.: “Las cosas se ponen raras… rápido”

Un nuevo estudio revela que la inteligencia artificial puede tomar decisiones más difíciles que los humanos cuando se les asigna la tarea de emitir juicios. (iStock)
Las empresas de todo el país y del mundo están comenzando a implementar tecnología de inteligencia artificial o están considerando usar la tecnología para ayudar en las tareas diarias que normalmente serían manejadas por humanos.
La nueva investigación, dirigida por Ghasemi, examinó hasta qué punto la IA podría “reproducir el juicio humano”. Los investigadores determinaron que cuando los humanos entrenan sistemas usando datos “normativos”, donde los humanos describen explícitamente una posible violación, los sistemas de IA alcanzan una respuesta más similar a la humana que si estuvieran entrenados usando “metadatos”.
¿Cómo es la falsificación sobre aplastar la responsabilidad política?
Los metadatos se definen como cuando los humanos etiquetan imágenes o texto de una manera realista, como describir la presencia de comida frita en la imagen de un plato. Al usar metadatos, los sistemas de IA a menudo predicen violaciones, como que los alimentos fritos violen una regla hipotética en una escuela que prohíbe los alimentos fritos o las comidas con altos niveles de azúcar, según el estudio.

Las palabras inteligencia artificial se muestran en esta infografía tomada el 31 de marzo de 2023. (Reuters/Dado Rovic/Ilustración)
Los investigadores crearon códigos predeterminados para cuatro configuraciones diferentes, que incluyen: restricciones de comidas escolares, códigos de vestimenta, códigos de mascotas de apartamentos y reglas de la sección de comentarios en línea. Luego pidieron a los humanos que nombraran características realistas de una imagen o texto, como la presencia de obscenidades en una sección de comentarios, mientras que a otro grupo se le preguntó si una imagen o texto rompía una regla hipotética.
El estudio, por ejemplo, mostró a las personas fotos de perros y preguntó si los cachorros violaron las políticas de un hipotético complejo de apartamentos contra la presencia de razas de perros agresivos en las instalaciones. Luego, los investigadores compararon las respuestas con las que se preguntaron bajo el paraguas de datos normativos versus descriptivos y encontraron que los humanos tenían un 20% más de probabilidades de informar reglas de complejos de apartamentos infiltrados por perros según los metadatos.
La IA podría convertirse en ‘terminator’, ganar mejor en manos humanas según las reglas darwinianas de la evolución, advierte un informe
Luego, los investigadores entrenaron una IA utilizando datos estándar y otra con metadatos en las cuatro configuraciones predeterminadas. El estudio encontró que un sistema entrenado en metadatos tenía más probabilidades de predecir incorrectamente una posible violación de la regla que el modelo estándar.

Dentro de una sala de audiencias con un mazo a la vista. (iStock)
“Esto demuestra que los datos realmente importan”, dijo a MIT News Aparna Balagopalan, estudiante de posgrado en ingeniería eléctrica y ciencias de la computación en el MIT que ayudó a escribir el estudio. “Es importante hacer coincidir el contexto de entrenamiento con el contexto de implementación si está entrenando modelos para detectar si se ha violado una regla”.
Los investigadores argumentaron que la transparencia de los datos podría ayudar con el problema de la IA para predecir infracciones predeterminadas o sistemas de capacitación con metadatos y una pequeña cantidad de datos de referencia.
CUIDADO CON LOS CRIPTOCRIMINALES: La inteligencia artificial te persigue
“La forma de solucionar esto es reconocer de manera transparente que si queremos reproducir el juicio humano, solo debemos usar los datos recopilados en esta situación”, dijo Ghasemi a MIT News.
“De lo contrario, terminaremos con sistemas que sufrirán ajustes muy duros, mucho más duros que los que harían los humanos. Los humanos verán un matiz o harán otra distinción, mientras que estos modelos no”.

Ilustración de los logotipos de ChatGPT y Google Bard (Jonathan Ra/NurPhoto a través de Getty Images)
El informe surge cuando las preocupaciones se extienden en algunas industrias profesionales de que la inteligencia artificial podría acabar con millones de puestos de trabajo. Un informe de Goldman Sachs a principios de este año encontró que la IA generativa podría resolver e impactar 300 millones de empleos en todo el mundo. Otro estudio de la firma de capacitación externa y ejecutiva Challenger, Gray & Christmas descubrió que un chatbot de IA, ChatGPt, podría reemplazar al menos 4,8 millones de empleos estadounidenses.
Haga clic aquí para la aplicación FOX NEWS
Un sistema de inteligencia artificial como ChatGPT puede simular una conversación humana en función de las indicaciones realizadas por humanos. El sistema ya ha demostrado ser útil para algunas industrias profesionales, como los trabajadores de servicio al cliente que han podido aumentar su productividad con la ayuda de Generative Generative Transforme de OpenAI, según un documento de trabajo reciente de la Oficina Nacional de Investigación Económica.