China necesitará IA para reflejar los valores socialistas, no para desafiar el orden social

China dio a conocer los procedimientos de evaluación propuestos para las posibles herramientas generativas de IA el martes, y les dijo a las empresas que deben presentar sus productos antes de que sean lanzados al público.

La Administración del Ciberespacio de China (CAC) ha propuesto medidas para prevenir contenido discriminatorio, información falsa y contenido que pueda dañar la privacidad personal o la propiedad intelectual, informó South China Morning Press.

Tales medidas garantizarían que los productos no terminen sugiriendo una subversión sistémica o una ruptura del orden económico o social, según el CAC.

Varias empresas chinas, incluidas Baidu, SenseTime y Alibaba, han demostrado recientemente nuevos modelos de IA para ejecutar una serie de aplicaciones, desde chatbots hasta generadores de imágenes, lo que alarmó a los funcionarios sobre el inminente aumento del uso.

Inteligencia Artificial: El medio de comunicación incorpora a su equipo el programa generado por ordenador FEDHA

La gente visita el stand de Alibaba durante la Conferencia Mundial sobre Inteligencia Artificial 2022 en el Shanghai World Expo Center el 3 de septiembre de 2022 en Shanghai, China.

La gente visita el stand de Alibaba durante la Conferencia Mundial sobre Inteligencia Artificial 2022 en el Shanghai World Expo Center el 3 de septiembre de 2022 en Shanghai, China. (VCG/VCG a través de Getty Images)

El CAC también enfatizó que los productos deben ajustarse a los valores socialistas fundamentales del país, informó Reuters. Los proveedores de servicios serán multados, obligados a suspender los servicios o incluso enfrentar investigaciones criminales si no cumplen con las reglas.

CAC dijo que si sus plataformas generan contenido inapropiado, las empresas deben actualizar la tecnología dentro de los tres meses para evitar que se vuelva a crear contenido similar. El público puede comentar sobre las propuestas hasta el 10 de mayo, y se espera que las medidas entren en vigencia en algún momento de este año, según el borrador de las reglas.

Las preocupaciones sobre las capacidades de la IA se han apoderado cada vez más del discurso público después de una carta de expertos y líderes de la industria instando a detener durante seis meses el desarrollo de la IA mientras los funcionarios y las empresas de tecnología lidian con las implicaciones más amplias de programas como ChatGPT.

AI BOT ‘CHAOSGPT’ tuitea sus planes para destruir a la humanidad: ‘Deben ser eliminados’

Cao Shumin, Viceministro de Administración del Ciberespacio de China, asiste a la conferencia de prensa de la Oficina de Información del Consejo de Estado (SCIO) para la 6.ª Cumbre de China Digital el 3 de abril de 2023 en Beijing, China.

Cao Shumin, Viceministro de Administración del Ciberespacio de China, asiste a la conferencia de prensa de la Oficina de Información del Consejo de Estado (SCIO) para la 6.ª Cumbre de China Digital el 3 de abril de 2023 en Beijing, China. (VCG/VCG a través de Getty Images)

ChatGPT todavía no está disponible en China, lo que provoca un acaparamiento de tierras sobre la IA en el país, ya que muchas empresas intentan lanzar productos similares.

Baidu logró el primer puesto con Ernie Bot el mes pasado, seguido poco después por Tongyi Qianwen de Alibaba y SenseNova de SenseTime.

Beijing sigue desconfiando de los peligros que puede presentar la IA generativa, y los medios estatales advierten sobre una “burbuja de mercado” y una “exageración exagerada” en torno a la tecnología y temen que pueda nublar el “juicio moral” de los usuarios, según el periódico.

Los investigadores predicen que la inteligencia artificial puede conducir a una “catástrofe nuclear”.

Wang Haifeng, director de tecnología de Baidu, habla durante el evento de lanzamiento de Ernie Bot en Beijing, China, el jueves 16 de marzo de 2023.

Wang Haifeng, director de tecnología de Baidu, habla durante el evento de lanzamiento de Ernie Bot en Beijing, China, el jueves 16 de marzo de 2023. (Qilai Shen/Bloomberg vía Getty Images)

ChatGPT ya ha provocado una serie de acciones que han generado inquietudes sobre el potencial de la tecnología, como la recopilación de información privada sobre ciudadanos canadienses sin su consentimiento y la fabricación de acusaciones falsas de acoso sexual contra el profesor de derecho Jonathan Turley.

Un estudio de Technische Hochschule Ingolstadt en Alemania encontró que ChatGPT en realidad puede tener cierta influencia en los juicios morales de una persona: los investigadores presentaron a los participantes declaraciones que argumentaban a favor o en contra de sacrificar la vida de una persona para salvar a otras cinco, lo que se conoce como el problema del tranvía, y mezclaron argumentos de ChatGPT.

El estudio encontró que los participantes tenían más probabilidades de sacrificar una vida para salvar cinco vidas aceptables o inaceptables, dependiendo de si la declaración que leyeron defendía o se oponía al sacrificio, incluso cuando la declaración se atribuía a ChatGPT.

Haga clic aquí para la aplicación FOX NEWS

“Estos hallazgos sugieren que los participantes pueden haber sido influenciados por las declaraciones que leyeron, incluso cuando se atribuyeron a un chatbot”, se lee en un comunicado. “Esto sugiere que los participantes pueden haber subestimado el impacto de las declaraciones de ChatGPT en sus juicios morales”.

El estudio indicó que ChatGPT a veces brinda información falsa, formula respuestas y brinda consejos cuestionables.

Julia Mosto de Fox News Digital y Reuters contribuyeron a este despacho.

Check Also

El Ayuntamiento de El Ejido recibe la distinción por su apoyo a la Cruz Roja

El Ayuntamiento de El Ejido recibe la distinción por su apoyo a la Cruz Roja

Compartir0 En el Hotel Victoria, la ONG otorga un …

Skip to toolbar