TECNOLOGÍA
Ex-CEO de Google rompe el silencio y lanza aterradora predicción sobre la inteligencia artificial: “Podría matar”
El ejecutivo manifestó que la IA representa un riesgo existencial para la humanidad.
Los últimos años de este siglo se han caracterizado por un avance acelerado de la inteligencia artificial (IA). No obstante, esta herramienta también ha generado varías críticas alrededor del mundo y algunos gobiernos han pedido pausar su desarrollo.
Uno de los últimos en pronunciarse con respecto a este tema fue Eric Schmidt, ex CEO de Google entre 2001 y 2011, quien lanzó una preocupante predicción y aseguró que la humanidad podría estar en peligro.
El empresario manifestó este miércoles durante un evento The Wall Street Journal que la inteligencia artificial representa un riesgo existencial para la sociedad, puesto que podría hacer que las personas “hieran o maten”.
De acuerdo con el norteamericano, esta tecnología también tendría la capacidad en un futuro de encontrar vulnerabilidades dentro de los diferentes software que se utilizan en todos las altas instituciones. Asimismo, recalcó que todo esto parece sacado de la ficción.
Tendencias
“Hay escenarios, no hoy, sino razonablemente pronto, en los que estos sistemas podrán encontrar exploits de día cero (fallas de seguridad en el código) en problemas cibernéticos o descubrir nuevos tipos de biología”, indicó inicialmente.
Luego, añadió: “Ahora, esto es ficción hoy en día, pero es probable que su razonamiento sea cierto. Y cuando eso suceda, queremos estar preparados para saber cómo asegurarnos de que estas cosas no sean mal utilizadas por personas malvadas”.
Cabe mencionar que Schmidt recientemente presidió la Comisión de Seguridad Nacional de Estados Unidos sobre inteligencia artificial, donde también advirtió sobre los peligros de esta. Además, afirmó que cree poco probable que la nación norteamericana establezca una agencia reguladora.
¿Qué piden los expertos?
Elon Musk y cientos de expertos mundiales firmaron el mes pasado un llamado a hacer una pausa de seis meses en la investigación sobre las inteligencias artificiales más potentes, debido a que advierten que estas representan actualmente “grandes riesgos para la humanidad”.
“En los últimos meses, hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, precisaron.
Sam Altman, director de Open AI, empresa que diseñó ChatGPT, ha reconocido en diferentes oportunidades que tiene un poco de miedo de que su creación se utilice para la “desinformación a gran escala o ciberataques”.
Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.
“Es que la nueva generación de IA no se limita solo a difundir los contenidos, sino que puede producir el contenido por sí misma. Tenemos que entender que la IA es la primera tecnología de la historia que puede tomar decisiones por sí misma. Puede tomar decisiones sobre su propio uso”. Yuval Noah Harari, famoso historiador israeli que también firmó la petición.