Uno de los fundadores de la empresa líder en inteligencia artificial OpenAI ha advertido que la superinteligencia debe ser controlada para evitar la extinción de la raza humana.
“La superinteligencia será la tecnología más influyente jamás inventada por la humanidad, y puede ayudarnos a resolver muchos de los problemas más importantes del mundo. Pero el enorme poder de la superinteligencia también puede ser muy peligroso y puede conducir al debilitamiento de la humanidad o incluso del extinción de la humanidad”, escribieron Ilya Sutskiver y el presidente Matchmaker Jan Laiki en una publicación de blog el martes, diciendo que creen que tales desarrollos podrían llegar tan pronto como esta década.
La gestión de tales riesgos, dijeron, requerirá nuevas instituciones de gobierno y una solución al problema de alineación de la superinteligencia: garantizar que los sistemas de IA más inteligentes que los humanos “sigan las intenciones humanas”.
“Actualmente, no tenemos una solución para dirigir o controlar la IA de superinteligencia potencial y evitar que se vuelva maligna. Nuestras tecnologías existentes para adaptar la IA, como el aprendizaje reforzado a partir de la retroalimentación humana, dependen de que los humanos puedan supervisar la IA. Pero los humanos no podrán supervisar de manera confiable los sistemas de IA que son más inteligentes que nosotros, por lo que nuestras tecnologías de alineación actuales no alcanzarán la superinteligencia”. “Necesitamos nuevos avances científicos y técnicos”.
El FBI advierte contra el uso de inteligencia artificial para crear esquemas de ‘sexo’

La aplicación OpenAI ChatGPT en el sitio web de App Store se muestra en una pantalla y el sitio web de OpenAI se muestra en la pantalla de un teléfono en esta foto ilustrativa tomada en Polonia el 18 de mayo de 2023. (Jacob Borzycki/NourPhoto)
Para resolver estos problemas, en cuatro años, dijeron que liderarán un nuevo equipo y dedicarán el 20% de la potencia de cómputo asegurada hasta ahora al esfuerzo.
“Si bien este es un objetivo increíblemente ambicioso y no tenemos garantía de éxito, somos optimistas de que los esfuerzos concentrados y concertados pueden resolver este problema”, dijeron.
El supervisor de Biden afirma ‘daño irreparable’, busca continuar reuniéndose con BIG TECH después de ordenarle que se detenga

Ilya Sutskfer, científico informático ruso-israelí-canadiense y cofundador y científico jefe de OpenAI, habla en la Universidad de Tel Aviv en Tel Aviv el 5 de junio de 2023. (Jack Joyce/AFP vía Getty Images)
Además de trabajar para mejorar los modelos OpenAI existentes, como ChatGPT, y mitigar los riesgos, el nuevo equipo se está enfocando en los desafíos de aprendizaje automático de alinear los sistemas de IA superinteligentes con las intenciones humanas.
Su objetivo es crear un investigador de alineación robótica casi a escala humana, utilizando cantidades masivas de computación para escalar y “alineación iterativamente superinteligente”.
Haga clic aquí para la aplicación FOX NEWS

18 de abril de 2023, Berlín, Alemania: Sitio web de OpenAI abierto en un portátil. (Hannes P Albert / alianza de imágenes a través de Getty Images)
Para hacer esto, OpenAI desarrollará un método de entrenamiento escalable, validará el modelo resultante y luego hará una prueba de estrés de su tubería de alineación.
Los esfuerzos de la empresa cuentan con el respaldo de Microsoft.
Reuters contribuyó a este informe.