Los expertos dicen que es probable que los jueces tomen en sus propias manos sus preocupaciones sobre la IA y establezcan sus propias reglas para la tecnología en los tribunales.
El juez de distrito de EE. UU. Brantley Starr del Distrito Norte de Texas puede haber sido innovador la semana pasada cuando pidió a los abogados que comparecen en la sala del tribunal que testifiquen que no usaron software de inteligencia artificial, como ChatGPT, para redactar sus archivos sin examen humano. Exactitud.
“Al menos les estamos diciendo a los abogados, que pueden no saber lo contrario, que no pueden simplemente confiar en estas bases de datos”, dijo a Reuters Starr, el juez designado por Trump. “Deberían verificarlo ellos mismos con una base de datos tradicional”.
Los expertos que hablaron con Fox News Digital argumentaron que la decisión del juez de emitir un compromiso de IA a los abogados es “excelente” y un plan de acción que probablemente se repita en medio de la carrera tecnológica para construir plataformas de IA más sólidas.
Un juez de Texas dice que no hay inteligencia artificial en la sala del tribunal a menos que los abogados certifiquen que ha sido verificada por un humano

Los expertos le dijeron a Fox News Digital que las pautas de IA en los tribunales pueden dejarse en manos de jueces individuales. (iStock)
“Creo que esta es una excelente manera de garantizar que la IA se use correctamente”, dijo Christopher Alexander, director de comunicaciones de Liberty Blockchain. “El juez simplemente usa el viejo adagio ‘confía pero verifica’”.
“Es probable que se deba a que el riesgo de error o sesgo es demasiado grande”, añadió Alexander. “La investigación legal es mucho más compleja que simplemente ingresar números en una calculadora”.
Starr dijo que elaboró el plan para mostrar a los abogados que la IA es capaz de alucinar y fabricar casos, con una declaración en el sitio web de la corte que advierte que los chatbots no juran cumplir con la ley como lo hacen los abogados.
La inteligencia artificial le está costando el trabajo a casi 4,000 personas en los Estados Unidos, dice el informe
“En su estado actual, estas plataformas son propensas a las alucinaciones y los sesgos. En las alucinaciones, las cosas se inventan, incluso las citas y las citas”, dice el comunicado.
“Sin restricciones por ningún sentido del deber, el honor o la justicia, dicho software opera de acuerdo con las reglas de la computadora en lugar de la convicción, en la programación en lugar del principio”, continuó el aviso.

Los expertos dicen que es probable que los jueces tomen en sus propias manos sus preocupaciones sobre la IA y establezcan sus propias reglas para la tecnología en los tribunales. (Josep Lago/AFP vía Getty Images)
Phil Siegel, fundador de CAPTRS (Centro para la Preparación Avanzada y la Respuesta a Amenazas Simuladas), una organización sin fines de lucro enfocada en el uso de juegos de simulación e IA para mejorar la preparación social ante desastres, dijo que Judge fue inteligente en sus requisitos de compromiso de IA, y agregó que la IA puede desempeñar un papel en el futuro sistema de justicia.
“En este punto, esa es una posición razonable para que la tome un juez”, dijo Siegel. “Los modelos de lenguaje grandes alucinarían porque los humanos también lo hacen”.
“No pasará mucho tiempo antes de que surjan conjuntos de datos y modelos más enfocados que resuelvan este problema”, continuó. “En áreas más específicas como el derecho, pero también en arquitectura, finanzas, etc.”
Señaló cómo crear un conjunto de datos en el campo del derecho que agregue toda la jurisprudencia civil y los estatutos penales por jurisdicción y se utilice para entrenar un modelo de IA.
Ai posó para una discusión con estudiantes universitarios que se encontraban en una encrucijada técnica.
“Estas bases de datos se pueden construir con citas que siguen un cierto esquema de convención que dificulta que un ser humano o una IA las alucine o las cite incorrectamente”, dijo Siegel. “También necesitará un buen esquema para garantizar que las leyes estén armonizadas con sus jurisdicciones. La cita puede ser genuina, pero cuando proviene de una jurisdicción no relacionada, no se podrá utilizar en los tribunales. En el punto en que el conjunto de datos y la IA entrenada son disponible, el árbitro se convertirá en un punto discutible.

Un juez de Texas puede haber sido innovador cuando les pidió a los abogados en la sala del tribunal que certificaran que no usaron software de inteligencia artificial, como ChatGPT, para redactar sus archivos sin una verificación humana de precisión. (Imágenes falsas)
Aiden Buzzetti, presidente de Bull Moose Project, una organización conservadora sin fines de lucro que trabaja para “identificar, capacitar y desarrollar la próxima generación de líderes America-First”, dijo que los requisitos de Starr no sorprenden dada la falta de legislación y cortafuegos en torno a la IA.
“En ausencia de una legislación proactiva para garantizar la calidad de los productos generados por IA, es bastante comprensible que las personas y las organizaciones establezcan sus propias reglas con respecto al uso de materiales de IA”, dijo Buzzetti. “Es probable que esta tendencia aumente a medida que los legisladores ignoren los riesgos involucrados en otras profesiones”.
Las antiguas generaciones capacitan a la nación en el conocimiento de la inteligencia artificial: una encuesta de opinión
El plan de Starr se produce después de que un juez de Nueva York amenazara con castigar a un abogado por usar ChatGPT en un informe judicial que citaba casos falsos.
Sin embargo, el juez de Texas dijo que el incidente no influyó en su decisión. En cambio, comenzó a redactar sus reglas de IA durante una audiencia sobre la tecnología en una conferencia organizada por la Quinta Corte de Apelaciones de EE. UU.
Los maestros están tomando las preocupaciones de la IA en sus propias manos en medio de la advertencia de amenazas tecnológicas para las escuelas.

Susan Nossel, directora ejecutiva de PEN America, dijo en un comunicado que sacar libros de las bibliotecas escolares les enseña a los estudiantes que son peligrosos. (iStock)
Los líderes en otros campos también han expresado su preocupación por la IA y la falta de regulaciones sobre tecnología poderosa en sus manos, incluidos los maestros en el Reino Unido. Una herramienta útil para estudiantes y profesores, los riesgos tecnológicos son la “mayor amenaza” para las escuelas.
Los docentes están formando su propio consejo asesor para articular qué componentes de los docentes de IA deben ignorar en su trabajo.
Haga clic aquí para la aplicación FOX NEWS
“Como líderes en escuelas estatales e independientes, vemos a la IA como la mayor amenaza, pero también potencialmente como el mayor beneficio para nuestros estudiantes, personal y escuelas”, escribió la Alianza de Maestros del Reino Unido en una carta a The Times. “Las escuelas están desconcertadas por la tasa de cambio muy rápida en la IA y buscan orientación segura sobre la mejor manera de avanzar, pero ¿en quién podemos confiar con nuestro consejo?”