El rápido avance de la inteligencia artificial (IA) ha desencadenado una carrera armamentística internacional por el dominio de esta tecnología desde el punto de vista militar.
Las grandes potencias mundiales están integrando discretamente la IA en sus ejércitos para obtener una ventaja estratégica. Aun así, como ha expresado Geoffrey Hinton, uno de los padrinos de la inteligencia artificial y Premio Nobel de la Paz, esta situación podría cambiar cuando la tecnología avance lo suficiente como para suponer una amenaza existencial para la humanidad.
«En riesgos como las armas autónomas letales, los países no colaborarán», aseguraba Hinton durante un seminario celebrado la semana pasada en la Real Academia Sueca de Ciencias de la Ingeniería. «Todos los grandes países proveedores de armas, Rusia, Estados Unidos, China, Gran Bretaña, Israel y posiblemente Suecia, están ocupados fabricando armas letales autónomas y no se les va a frenar, no se van a regular y no van a colaborar».
Sin embargo, este experto investigador cree que eso cambiará cuando sea necesario que la raza humana luche contra la amenaza potencial que previsiblemente supondrá una versión superinteligente de la IA.
«Cuando estas cosas sean más inteligentes que nosotros (que casi todos los investigadores que conozco creen que lo acabarán siendo, solo discrepamos en el cuándo, si dentro de 5 años o dentro de 30), ¿tomarán el control y habrá algo que podamos hacer para evitarlo?», planteaba Hinton. «Vamos a colaborar en eso porque ningún país quiere que eso ocurra».
«El Partido Comunista Chino no quiere perder el poder en favor de la inteligencia artificial», añadía. «Quiere conservarlo».
El informático y vicepresidente de Google Brain apuntaba a que esta colaboración podría parecerse a la de la Guerra Fría, cuando Rusia y EEUU —a pesar de ser enemigos— compartían el objetivo común de evitar un conflicto nuclear.
Alegando preocupaciones similares a las de Hinton, el consejero delegado de OpenAI, Sam Altman, ya ha pedido en varias ocasiones a los líderes mundiales que establezcan una «agencia internacional» que evalúe los modelos de IA más potentes y garantice «pruebas de seguridad razonables».
«Llegará un momento, en un futuro no muy lejano, como si no estuviéramos hablando de décadas y décadas a partir de ahora, en el que los sistemas de inteligencia artificial más avanzados sean capaces de causar un daño global significativo», argumentó Altman en un episodio del pódcast All-In que fue publicado en mayo.
Según un informe de Goldman Sachs, se espera que la inversión mundial en IA alcance los 200.000 millones de dólares (unos 190.000 millones de euros al tipo de cambio actual) en 2025, con Estados Unidos y China a la cabeza de esta particular carrera armamentística militar.
Ambas potencias ya están empezando a colaborar en las amenazas existenciales relacionadas con la inteligencia artificial. En noviembre de este año, en la Cumbre de Cooperación Económica Asia-Pacífico, el presidente estadounidense Joe Biden y el líder chino Xi Jinping acordaron que los humanos, y no la IA, deben ser los que tomen las decisiones relativas al uso de la tecnología nuclear.
Fuente: Agencia ID.
IMPORTANTE:
Sí: El usuario podrá preguntar, felicitar, realizar críticas constructivas y/o contribuir con opiniones relevantes en el campo de la ingeniería e infraestructura.
No: Molestar, intimidar o acosar de ninguna manera.Tampoco utilizará el espacio para la promoción de productos o servicios comerciales, así como de cualquier actividad que pueda ser calificada como SPAM.
Para saber más consulta los Términos de Uso de INGENET.