La sentencia del Tribunal Supremo en el caso YouTube puede tener implicaciones para ChatGPT

Cuando la Corte Suprema de EE. UU. decida en los próximos meses si debilita un fuerte escudo que protege a las empresas de Internet, el fallo también podría tener ramificaciones para tecnologías en rápida evolución, como el chatbot de inteligencia artificial ChatGPT.

Los jueces deben dictaminar a fines de junio si se puede demandar a Alphabet Inc de YouTube por sus recomendaciones de videos a los usuarios. Este caso prueba si la ley de EE. UU. que protege las plataformas tecnológicas de la responsabilidad legal por el contenido publicado en línea por los usuarios también se aplica cuando las empresas usan algoritmos para dirigirse a los usuarios con recomendaciones.

Lo que el tribunal decida sobre estos temas es relevante fuera de las plataformas de redes sociales. Su fallo podría influir en un debate emergente sobre si las empresas que desarrollan chatbots impulsados ​​por IA, como ChatGPT de OpenAI, una empresa en la que invierte Microsoft Corp., o Bard de Google de Alphabet, deben protegerse de reclamos legales como difamación o violaciones de privacidad, según expertos en tecnología y derecho.

Los expertos agregaron que esto se debe a que los algoritmos que admiten las herramientas de creación de IA como ChatGPT y su sucesor GPT-4 funcionan de manera similar a los que sugieren videos a los usuarios de YouTube.

China necesitará bots estilo chat para alinearse con los “valores fundamentales” comunistas.

“El debate es realmente sobre si la selección de información disponible en línea a través de motores de recomendación es tan importante para dar forma al contenido para que sea responsable”, dijo Cameron Kerry, miembro visitante del grupo de expertos Brookings Institution en Washington y experto en inteligencia artificial. “Tienes el mismo tipo de problemas con tu chatbot”.

Los representantes de OpenAI y Google no respondieron a las solicitudes de comentarios.

Durante los argumentos de febrero, los jueces de la Corte Suprema expresaron su incertidumbre sobre si debilitar las protecciones consagradas en la ley, conocida como la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. Si bien el caso no está directamente relacionado con la IA generativa, el juez Neil Gorsuch señaló que Amnistía Internacional señala que las herramientas que generan “poesía” y “controversia” probablemente no tendrán tal protección legal.

Corte Suprema de los Estados Unidos

La Corte Suprema de los Estados Unidos se ve en Washington, DC, el 27 de marzo de 2023. La decisión de la Corte Suprema sobre las protecciones en YouTube tendrá implicaciones para las empresas de inteligencia artificial como ChatGPT. (Reuters/Evelyn Hochstein).

El problema es solo un lado de un debate emergente sobre si la inmunidad de la Sección 230 debe aplicarse a los modelos de IA entrenados en conjuntos de datos en línea pero capaces de producir obras originales.

Biden puede regular la IA con respecto a la ‘distorsión’ y los ‘resultados discriminatorios’

Las protecciones bajo la Sección 230 generalmente se aplican al contenido de terceros de los usuarios de la Plataforma Tecnológica y no a la información que la Compañía ayudó a desarrollar. Los tribunales aún no han considerado si cubrir una respuesta de un chatbot de IA.

consecuencias de sus propias acciones

El senador demócrata Ron Wyden, quien ayudó a redactar este proyecto de ley mientras estaba en la Cámara, dijo que el escudo de responsabilidad no debería aplicarse a las herramientas de IA generativa porque tales herramientas “crean contenido”.

“La Sección 230 se trata de proteger a los usuarios y los sitios para alojar y organizar el discurso de los usuarios. No debería proteger a las empresas de las consecuencias de sus acciones y productos”, dijo Wyden en un comunicado a Reuters.

La industria tecnológica ha presionado para preservar la Sección 230 a pesar de la oposición bipartidista a la inmunidad. Dijeron que herramientas como ChatGPT actúan como motores de búsqueda, dirigiendo a los usuarios al contenido encontrado en respuesta a una consulta.

“La IA realmente no hace nada. Toma el contenido existente y lo coloca de una manera diferente o en un formato diferente”, dijo Carl Szabo, vicepresidente y asesor general de NetChoice, un grupo comercial que se especializa en la industria de la tecnología.

Szabo dijo que una vulnerabilidad de la Sección 230 plantearía una tarea imposible para los desarrolladores de IA, amenazando con exponerlos a una avalancha de demandas que podrían sofocar la innovación.

Algunos expertos especulan que los tribunales pueden tomar un término medio, examinando el contexto en el que el modelo de IA generó una respuesta potencialmente dañina.

En los casos en que el modelo de IA parezca estar parafraseando las fuentes existentes, el escudo aún puede aplicarse. Pero se sabe que los chatbots como ChatGPT generan respuestas imaginarias que parecen no estar relacionadas con la información en otro lugar en línea, una situación que, según los expertos, probablemente no esté protegida.

Extiende la imaginación decir que los desarrolladores de IA deberían ser inmunes a las demandas por los modelos que “programaron, entrenaron e implementaron”, dijo Hani Farid, tecnólogo y profesor de la Universidad de California, Berkeley.

Haga clic aquí para la aplicación FOX NEWS

“Cuando las empresas son responsables en demandas civiles por daños causados ​​por los productos que producen, producen productos más seguros”, dijo Farid. “Y cuando no asumen la responsabilidad, producen productos menos seguros”.

El caso que decide la Corte Suprema involucra una apelación de la familia de Nohemi González, una estudiante universitaria de 23 años de California que fue baleada fatalmente en 2015 por militantes islamistas en París, contra el rechazo de un tribunal inferior al caso de su familia. Demanda de YouTube.

La demanda acusó a Google de proporcionar “apoyo material” al terrorismo y alegó que YouTube, a través de los algoritmos de la plataforma para compartir videos, recomendó ilegalmente videos del grupo militante Estado Islámico, que se atribuyó la responsabilidad de los ataques de París, a algunos usuarios.

Check Also

JORNADA AAPF-CM | LA ACTUACIÓN PERICIAL DEL ARQUITECTO – Coal

JORNADA AAPF-CM | LA ACTUACIÓN PERICIAL DEL ARQUITECTO – Coal

Jornada organizada por la Agrupación de Arquitectos Peritos y Forenses de Castilla-La Mancha con el …

Skip to toolbar