El profesor Geoffrey Hinton (76) dijo a BBC Newsnight que sería necesaria una reforma de los beneficios que otorgara cantidades fijas de efectivo a cada ciudadano porque estaba “muy preocupado de que la IA ocupara muchos trabajos mundanos”.
«La gente de Downing Street me consultó y les dije que la renta básica universal era una buena idea», dijo.
Dijo que si bien sentía que la IA aumentaría la productividad y la riqueza, el dinero iría a parar a los ricos «y no a las personas cuyos empleos se pierden y eso será muy malo para la sociedad».
El profesor Hinton es el pionero de las redes neuronales, que constituyen la base teórica de la actual explosión de la inteligencia artificial.
Hinton cree que los sistemas políticos utilizarán la IA para «aterrorizar a la población». Con respecto al riesgo existencial de inteligencia artificial, Hinton ha declarado que la superinteligencia parece estar a más de 50 años en el futuro, pero advierte que «no hay una buena trayectoria de cosas menos inteligentes controlando cosas de mayor inteligencia». Cuando fue preguntado en 2015 por qué continúa con la investigación a pesar de sus preocupaciones graves, Hinton declaró «te podría dar los argumentos habituales. Pero la verdad es que la perspectiva de descubrir es demasiado dulce».
Hasta el año pasado trabajó en Google, pero dejó el gigante tecnológico para poder hablar más libremente sobre los peligros de la IA no regulada.
El concepto de Renta Básica Universal equivale a que el gobierno pague a todos los individuos un salario fijo independientemente de sus medios.
Los críticos dicen que sería extremadamente costoso y desviaría fondos de los servicios públicos, sin ayudar necesariamente a aliviar la pobreza.
Un portavoz del gobierno afirmó que «no había planes para introducir una renta básica universal».
El profesor Hinton reiteró su preocupación por el hecho de que estuvieran surgiendo amenazas al nivel de la extinción humana.
Los acontecimientos del último año mostraron que los gobiernos no estaban dispuestos a frenar el uso militar de la IA, dijo, mientras que la competencia para desarrollar productos rápidamente significaba que existía el riesgo de que las empresas de tecnología no «pusieran suficiente esfuerzo en la seguridad».
El profesor Hinton dijo que «mi estimación es que dentro de cinco a 20 años habrá una probabilidad de la mitad de que tengamos que enfrentar el problema de que la IA intente tomar el control».
Esto conduciría a una «amenaza de extinción» para los humanos porque podríamos haber «creado una forma de inteligencia que es simplemente mejor que la inteligencia biológica… Eso es muy preocupante para nosotros».
La IA podría “evolucionar”, dijo, “para obtener la motivación para hacer más de sí misma” y podría “desarrollar de forma autónoma un sub objetivo de obtener el control”.
Dijo que ya había evidencia de grandes modelos de lenguaje (un tipo de algoritmo de inteligencia artificial utilizado para generar texto) que eligieron ser engañosos.
Dijo que las recientes aplicaciones de IA para generar miles de objetivos militares eran el “extremo delgado de la cuña”.
«Lo que más me preocupa es cuándo podrán tomar de forma autónoma la decisión de matar gente», afirmó.
El profesor Hinton dijo que podría ser necesario algo similar a los Convenios de Ginebra (los tratados internacionales que establecen estándares legales para el trato humanitario en la guerra) para regular el uso militar de la IA.
«Pero no creo que eso vaya a suceder hasta que hayan sucedido cosas muy desagradables», añadió.
Cuando se le preguntó si Occidente estaba en una carrera al estilo del Proyecto Manhattan -en referencia a la investigación de armas nucleares durante la Segunda Guerra Mundial- con Rusia y China sobre el uso militar de la IA, el profesor Hinton respondió: “[El presidente ruso Vladimir] Putin dijo hace algunos años que quien controla la IA controla el mundo. Entonces me imagino que están trabajando muy duro».
«Afortunadamente, Occidente probablemente esté muy por delante de ellos en investigación. Probablemente todavía estemos ligeramente por delante de China. Pero China está invirtiendo más recursos. Y en términos de usos militares, creo que va a haber una carrera».
Dijo que una mejor solución sería prohibir los usos militares de la IA.
Fuente: BBC