Concha prevé una “carrera armamentista” para armar la inteligencia artificial
El colaborador de Fox News, Joe Concha, se une a “Fox & Friends First” para analizar la advertencia de Elon Musk de que la inteligencia artificial podría amenazar las elecciones y sus preocupaciones sobre una tasa de natalidad en declive. Concha también analiza la respuesta de la AOC al crimen en la ciudad de Nueva York.
Mucho antes de que Elon Musk y el cofundador de Apple, Steve Wozniak, firmaran una carta advirtiendo que la inteligencia artificial planteaba “profundos peligros” para la humanidad, el físico teórico británico Stephen Hawking estaba dando la voz de alarma sobre la rápida evolución de la tecnología.
“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”, dijo Hawking a la BBC en una entrevista en 2014.
Hawking, quien padecía esclerosis lateral amiotrófica (ELA) durante más de 55 años, murió en 2018 a la edad de 76 años. Aunque tuvo comentarios críticos sobre la IA, también usó una forma muy básica de tecnología para comunicarse debido a su enfermedad que debilita los músculos y a que Hawking tenía que usar una silla de ruedas.
Hawking no pudo hablar en 1985 y se basó en varios métodos para comunicarse, incluido un dispositivo generador de voz con tecnología Intel, que le permitió usar movimientos faciales para seleccionar palabras o letras que estaban hechas para hablar.
Stephen Hook dijo que “no hay Dios” y que los humanos “vivirán en el espacio” en el libro final

Stephen Hawking en 2007. (Bruno Vincent/Getty Images/Archivo)
El comentario de Hawking a la BBC en 2014 de que la IA podría “significar el fin de la raza humana” fue en respuesta a una pregunta sobre la posibilidad de renovar la tecnología de voz en la que se basaba. Le dijo a la BBC que las formas básicas de inteligencia artificial ya han demostrado ser efectivas, pero crear sistemas que rivalicen o superen la inteligencia humana podría ser desastroso para la raza humana.
“Despegará por sí solo y se rediseñará a un ritmo cada vez mayor”, dijo.
Sesgo, muertes y autos autónomos: los incidentes de IA se duplicarán cuando Silicon Valley lance la carrera tecnológica, dicen los expertos
“Los humanos, limitados por una evolución biológica lenta, no pueden competir y tomarán su lugar”, agregó Hawking.

Stephen Hawking se mostró el 10 de octubre de 1979 en Princeton, Nueva Jersey. (Santi Visali / Getty Images)
Meses después de su muerte, el último libro de Hawking llega al mercado. Su libro, Respuestas cortas a las grandes preguntas, brinda a los lectores respuestas a las preguntas que a menudo le hacían. El libro de ciencia reveló el argumento de Hawking contra la existencia de Dios, cómo los humanos probablemente sobrevivirán en el espacio algún día y sus preocupaciones sobre la ingeniería genética y el calentamiento global.
La inteligencia artificial también encabezó la lista de “grandes preguntas”, argumentando que las computadoras “probablemente superarán a los humanos en inteligencia” dentro de 100 años.
Escribió: “Podemos enfrentar una explosión de inteligencia que eventualmente resultará en máquinas cuya inteligencia excede la nuestra inteligencia más de lo que nuestra inteligencia excede la inteligencia de los caracoles”.
Argumentó que las computadoras deben ser entrenadas para alinearse con los objetivos humanos, y agregó que no tomar en serio los riesgos asociados con la inteligencia artificial podría ser “nuestro peor error”.
Experto en tecnología advierte que la IA puede amenazar la comunicación humana y el romance: “La última entrega de una larga tradición”
“Es tentador descartar la idea de máquinas altamente inteligentes como mera ciencia ficción, pero eso sería un error, quizás el peor error de todos”.
Los comentarios de Hawking reflejan las preocupaciones de este año sobre el gigante tecnológico Elon Musk y el cofundador de Apple, Steve Wozniak, en una carta publicada en marzo. Los dos líderes tecnológicos, junto con miles de otros expertos, firmaron una carta en la que pedían una suspensión de al menos seis meses para construir sistemas de IA más potentes que el chatbot GPT-4 de OpenAI.

CEO de Tesla, Elon Musk (Patrick Bloul/Pool/Getty Images/Archivo)
“Los sistemas de IA con inteligencia competitiva humana pueden plantear serios riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA”, dice la carta, publicada por la organización sin fines de lucro Future of Life.
Revelado el último artículo de Stephen Hawking
ChatGPT de OpenAI se convirtió en la base de usuarios de más rápido crecimiento con 100 millones de usuarios activos mensuales en enero, ya que personas de todo el mundo se apresuraron a usar el chatbot, que simula conversaciones similares a las humanas según las indicaciones enviadas. El laboratorio lanzó la última versión de la plataforma, GPT-4, en marzo.

ChatGPT de OpenAI se convirtió en la base de usuarios de más rápido crecimiento con 100 millones de usuarios activos mensuales en enero, ya que personas de todo el mundo se apresuraron a usar el chatbot. (Eduardo Parra/Europa Press vía Getty Images/Archivo)
A pesar de los llamados para detener la investigación en los laboratorios de IA que trabajan en tecnología que anularía a GPT-4, el lanzamiento del sistema fue un momento decisivo que repercutió en toda la industria de la tecnología y llevó a muchas empresas a competir para construir sus propios sistemas de IA.
Stephen Hawking dice que la IA puede ‘destruir’ a la humanidad
Google está reformando su buscador e incluso creando un nuevo buscador basado en inteligencia artificial; Microsoft ha lanzado un “nuevo motor de búsqueda Bing” descrito como un “copiloto de usuario impulsado por IA para la web”; Musk dijo que lanzaría un sistema de IA de la competencia, que describió como “la mejor búsqueda de la verdad”.

Stephen Hawking en el One World Observatory el 12 de abril de 2016 en la ciudad de Nueva York. (Brian Beder/Getty Images)
Hawking había advertido el año antes de su muerte que el mundo necesitaba “aprender a prepararse y evitar los riesgos potenciales” asociados con la inteligencia artificial, argumentando que los sistemas “podrían ser el peor evento en la historia de nuestra civilización”. Sin embargo, señala que aún se desconoce el futuro y que la IA puede ser beneficiosa para la humanidad si se entrena adecuadamente.
Haga clic aquí para la aplicación FOX NEWS
“El éxito en la creación de una IA efectiva podría ser el evento más grande en la historia de nuestra civilización. O el peor evento. No lo sabemos. Por lo tanto, no podemos saber si la IA nos ayudará infinitamente o si seremos ignorados y marginados”, dijo Hawking durante un discurso que pronunció en la conferencia de tecnología Web Summit en Portugal en 2017: