Con el desarrollo de grandes modelos de lenguaje como ChatGPT en todo el mundo, los países se han apresurado a regular la inteligencia artificial. Algunos han formulado leyes estrictas sobre tecnología, mientras que otros carecen de supervisión regulatoria.
De particular interés han sido China y la Unión Europea, que han desarrollado regulaciones detalladas, pero dispares, para la IA. En ambos, el gobierno juega un papel muy importante. Esto difiere mucho de países como Estados Unidos, donde no existe una legislación federal sobre IA. La regulación del gobierno se produce cuando muchos países han expresado su preocupación por varios aspectos de la inteligencia artificial. Estos incluyen principalmente preocupaciones de privacidad y el potencial de daño social a través de software controvertido.
A continuación, se describe cómo los países de todo el mundo se las arreglan para regular el uso creciente del software de IA.
Inteligencia artificial: preguntas frecuentes sobre inteligencia artificial

Países de todo el mundo han emitido varias regulaciones con respecto a la inteligencia artificial, ya que la tecnología revolucionaria ha ganado reconocimiento mundial. (Jakob Borzycki/NurPhoto vía Getty Images)
- Regulaciones de EE. UU.
- regulación china
- ¿Qué otros países han legislado?
1. Regulaciones de EE. UU.
Estados Unidos aún no ha aprobado una legislación federal sobre inteligencia artificial. OpenAI, una empresa con sede en EE. UU., ha creado el software de IA más comentado hasta la fecha, ChatGPT. ChatGPT ha influido mucho en la conversación de IA. Los países de todo el mundo ahora están creando su propio software de inteligencia artificial, con una funcionalidad similar a ChatGPT.
A pesar de la falta de legislación federal, la administración Biden, junto con el Instituto Nacional de Estándares y Tecnología (NIST), ha emitido la Declaración de Derechos de Amnistía Internacional. El documento proporciona principalmente orientación sobre cómo se puede usar la IA y algunas de las formas en que se puede usar incorrectamente. Sin embargo, el marco no es jurídicamente vinculante.
Sin embargo, varios estados de todo el país han introducido sus propios conjuntos de leyes sobre IA. Vermont, Colorado e Illinois han comenzado a crear grupos de trabajo para estudiar la inteligencia artificial, según la Conferencia Nacional de Legislaturas Estatales (NCSL). El Distrito de Columbia, Washington, Vermont, Rhode Island, Pensilvania, Nueva York, Nueva Jersey, Michigan, Massachusetts, Illinois, Colorado y California también están considerando leyes de IA. Aunque todavía se debaten muchas leyes, Colorado, Illinois, Vermont y Washington han aprobado varias formas de legislación.
Por ejemplo, el Departamento de Seguros de Colorado requiere que las empresas calculen cómo se utiliza la IA en el modelado y los algoritmos. En Illinois, la legislatura aprobó la Ley de entrevistas en video de IA, que requiere el consentimiento de los empleados si se usa tecnología de IA para evaluar las nominaciones de los solicitantes de empleo. El estado de Washington requiere que su director de información cree un marco regulatorio para cualquier sistema en el que la IA pueda afectar a las agencias públicas.
¿Cuáles son los riesgos de la inteligencia artificial? Descubre por qué la gente le tiene miedo a la inteligencia artificial

Estados Unidos no tiene ninguna regulación federal para la IA en este momento. (Yacin Ozturk/Agencia Anadolu vía Getty Images)
Si bien la regulación de la inteligencia artificial en los Estados Unidos es un tema candente y una conversación en constante crecimiento, queda por ver cuándo el Congreso podría comenzar a ejercer la discreción regulatoria sobre la IA.
2. El enfoque regulatorio chino
China es un país donde el gobierno juega un papel muy importante en la regulación de la IA. Hay muchas empresas de tecnología con sede en China que han lanzado recientemente software de inteligencia artificial, como chatbots y generadores de imágenes. Por ejemplo, Baidu, SenseTime y Alibaba han lanzado muchos programas de inteligencia artificial. Alibaba tiene un gran modelo de lenguaje llamado Tongyi Qianwen, y SenseTime tiene una gran cantidad de servicios de inteligencia artificial como SenseChat, que funciona de manera similar a ChatGPT, un servicio que no está disponible en el país. Ernie Bot es otro chatbot lanzado en China por Baidu.
La Administración del Ciberespacio de China (CAC) emitió un reglamento en abril de 2023 que enumera las reglas que las empresas de IA deben seguir y las sanciones que enfrentarán si no las cumplen.
Según el Wall Street Journal, una de las reglas emitidas por la ACA es que se deben realizar revisiones de seguridad antes de que se publique un modelo de IA. Reglas como estas le dan al gobierno una gran supervisión de la IA.
¿Cuáles son los cuatro tipos principales de inteligencia artificial? Descubra cómo los futuros programas de IA pueden cambiar el mundo

La empresa china Baidu ha lanzado un chatbot de inteligencia artificial llamado Ernie Bot. (Pavlo Gonchar/SOPA Images/LightRocket vía Getty Images)
El CAC dijo que si bien apoya la innovación segura de IA, debería estar en línea con los valores socialistas de China, según Reuters.
Otra regulación específica detallada por el CAC es que los proveedores de servicios son responsables de la precisión de los datos utilizados para entrenar su software de IA. Según la fuente, también debería haber procedimientos que eviten cualquier discriminación al crear IA. Además, los servicios de IA deben exigir a los usuarios que proporcionen sus identidades reales cuando utilicen el software.
También hay sanciones, que incluyen multas, servicios suspendidos y cargos penales por infracciones, según Reuters. Además, si se publica contenido inapropiado a través de cualquier software de inteligencia artificial, la empresa tiene tres meses para actualizar la tecnología y asegurarse de que no vuelva a suceder, según la fuente.
Las reglas creadas por el CAC responsabilizan a las empresas de IA por la información que genera su software.
¿Cuál es la historia de la inteligencia artificial?

ChatGPT de OpenAI no está disponible en China. (Avishek Das/SOPA Images/LightRocket vía Getty Images)
3. ¿Qué otros países han legislado?
Reglas establecidas por la Unión Europea (UE). Incluyen la Ley de Inteligencia Artificial (AIA) que debutó en abril de 2021. Sin embargo, la ley aún está bajo revisión en el Parlamento Europeo, según el Foro Económico Mundial.
El marco regulatorio de la UE divide las aplicaciones de IA en cuatro categorías: riesgo mínimo, riesgo limitado, alto riesgo y riesgo inaceptable. Las aplicaciones que se consideran de riesgo pequeño o limitado tienen requisitos regulatorios ligeros, pero deben cumplir con ciertas obligaciones de transparencia. Por otro lado, las aplicaciones clasificadas como riesgos inaceptables están prohibidas. Se pueden usar aplicaciones que caen en la categoría de mayor riesgo, pero deben seguir pautas más estrictas y están sujetas a requisitos de pruebas más exigentes.
En el contexto de la Unión Europea, la Autoridad de Protección de Datos de Italia impuso una prohibición temporal de ChatGPT en marzo. La prohibición se basó en gran medida en preocupaciones de privacidad. Al implementar la prohibición, la agencia reguladora le dio a OpenAI 20 días para abordar inquietudes específicas, incluida la verificación de edad, la aclaración del uso de datos personales, las actualizaciones de la política de privacidad y el suministro de más información a los usuarios sobre cómo la aplicación utiliza los datos personales.
Haga clic aquí para la aplicación FOX NEWS

ChatGPT ha provocado muchas conversaciones sobre IA en todo el mundo. (Foto de Lionel Bonaventure/AFP vía Getty Images)
La prohibición de ChatGPT se levantó en Italia a fines de abril, luego de que se descubrió que el chatbot cumplía con los requisitos reglamentarios.
Otro país que ha regulado la IA es Canadá con la Ley de Datos e Inteligencia Artificial (AIDA) redactada en junio de 2022. AIDA exige transparencia a las empresas de IA y proporciona medidas contra la discriminación.