Durante medio siglo, Geoffrey Hinton alimentó la tecnología en el corazón de los chatbots como ChatGPT. Ahora le preocupa que cause daños graves.
El Dr. Hinton deja Google para poder compartir libremente su preocupación de que la inteligencia artificial podría causar daños graves al mundo.
Hinton fue un pionero de la inteligencia artificial. En 2012, el Dr. Hinton y dos de sus estudiantes de posgrado en la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de inteligencia artificial que las empresas más grandes de la industria tecnológica creen que es clave para su futuro.
El lunes, sin embargo, se unió oficialmente a un creciente coro de críticos que dicen que esas empresas corren hacia el peligro con su campaña agresiva para crear productos basados en inteligencia artificial generativa, la tecnología que impulsa a los chatbots populares como ChatGPT.
El Dr. Hinton dijo que renunció a su trabajo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en el campo, por lo que puede hablar libremente sobre los riesgos de la IA. Una parte de él, él dijo, ahora lamenta el trabajo de su vida.
“Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”, dijo el Dr. Hinton durante una larga entrevista la semana pasada en el comedor de su casa en Toronto, a pocos pasos de donde él y sus estudiantes hicieron su gran avance.
El viaje del Dr. Hinton de pionero de la IA a agorero marca un momento notable para la industria de la tecnología en quizás su punto de inflexión más importante en décadas. Los líderes de la industria creen que los nuevos sistemas de inteligencia artificial podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían generar avances en áreas que van desde la investigación de medicamentos hasta la educación.
Pero a muchos expertos de la industria les preocupa el temor de que estén liberando algo peligroso en la naturaleza. La IA generativa ya puede ser una herramienta para la desinformación. Pronto, podría ser un riesgo para los puestos de trabajo. En algún momento, dicen los mayores preocupados de la tecnología, podría ser un riesgo para la humanidad.
“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo el Dr. Hinton.
Después de que OpenAI, una empresa emergente de San Francisco, lanzara una nueva versión de ChatGPT en marzo , más de 1000 líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “profundos riesgos para la sociedad”. y la humanidad.”
Varios días después, 19 líderes actuales y anteriores de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica de 40 años, publicaron su propia carta advirtiendo sobre los riesgos de la IA. Ese grupo incluía a Eric Horvitz, director científico de Microsoft, que ha implementado la tecnología de OpenAI en una amplia gama de productos, incluido su motor de búsqueda Bing .
El Dr. Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar públicamente a Google ni a otras empresas hasta que dejara su trabajo. Notificó a la empresa el mes pasado que renunciaba y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se negó a discutir públicamente los detalles de su conversación con el Sr. Pichai.
El científico jefe de Google, Jeff Dean, dijo en un comunicado: “Seguimos comprometidos con un enfoque responsable de la IA. Estamos continuamente aprendiendo a comprender los riesgos emergentes al mismo tiempo que innovamos con audacia”.
El Dr. Hinton, un expatriado británico de 75 años, es un académico de toda la vida cuya carrera estuvo impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, el Dr. Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. En ese momento, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.
En la década de 1980, el Dr. Hinton era profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero dejó la universidad y se fue a Canadá porque dijo que no estaba dispuesto a recibir fondos del Pentágono. En ese momento, la mayor parte de la investigación de IA en los Estados Unidos fue financiada por el Departamento de Defensa. El Dr. Hinton se opone profundamente al uso de la inteligencia artificial en el campo de batalla, lo que él llama “soldados robot”.
En 2012, el Dr. Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.
Google gastó $44 millones para adquirir una empresa iniciada por el Dr. Hinton y sus dos alumnos. Y su sistema condujo a la creación de tecnologías cada vez más poderosas, incluidos nuevos chatbots como ChatGPT y Google Bard . El Sr. Sutskever se convirtió en científico jefe de OpenAI. En 2018, el Dr. Hinton y otros dos colaboradores de mucho tiempo recibieron el Premio Turing , a menudo llamado “el Premio Nobel de la computación”, por su trabajo en redes neuronales.
Casi al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital. El Dr. Hinton pensó que era una forma poderosa para que las máquinas entendieran y generaran lenguaje, pero era inferior a la forma en que los humanos manejaban el lenguaje.
Luego, el año pasado, cuando Google y OpenAI crearon sistemas utilizando cantidades de datos mucho mayores, su opinión cambió. Todavía creía que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que estaban eclipsando la inteligencia humana en otros. “Tal vez lo que sucede en estos sistemas”, dijo, “es en realidad mucho mejor que lo que sucede en el cerebro”.
A medida que las empresas mejoran sus sistemas de IA, cree, se vuelven cada vez más peligrosos. “Mira cómo era hace cinco años y cómo es ahora”, dijo sobre la tecnología de IA. “Toma la diferencia y propágala hacia adelante. Eso asusta.”
Hasta el año pasado, dijo, Google actuó como un “administrador adecuado” de la tecnología, con cuidado de no lanzar algo que pudiera causar daño. Pero ahora que Microsoft ha aumentado su motor de búsqueda Bing con un chatbot, lo que desafía el negocio principal de Google, Google está compitiendo para implementar el mismo tipo de tecnología . Los gigantes tecnológicos están atrapados en una competencia que podría ser imposible de detener, dijo el Dr. Hinton.
Su preocupación inmediata es que Internet se inundará con fotos , videos y textos falsos , y la persona promedio “ya no podrá saber qué es verdad”.
También le preocupa que, con el tiempo, las tecnologías de IA trastornen el mercado laboral. Hoy en día, los chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían reemplazar a los asistentes legales, asistentes personales, traductores y otros que manejan tareas rutinarias. “Se quita el trabajo pesado”, dijo. “Podría quitar más que eso”.
En el futuro, le preocupa que las versiones futuras de la tecnología representen una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan . Esto se convierte en un problema, dijo, ya que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código de computadora, sino que en realidad ejecuten ese código por su cuenta. Y teme el día en que las armas verdaderamente autónomas, esos robots asesinos, se hagan realidad.
“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, dijo. “Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.
Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que esta amenaza es hipotética. Pero el Dr. Hinton cree que la carrera entre Google y Microsoft y otros se convertirá en una carrera global que no se detendrá sin algún tipo de regulación global.
Pero eso puede ser imposible, dijo. A diferencia de las armas nucleares, dijo, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren en formas de controlar la tecnología. “No creo que deban escalar esto más hasta que hayan entendido si pueden controlarlo”, dijo.
El Dr. Hinton dijo que cuando la gente le preguntaba cómo podía trabajar en tecnología que era potencialmente peligrosa, parafraseaba a Robert Oppenheimer, quien dirigió el esfuerzo de EE. UU. para construir la bomba atómica: “Cuando ves algo que es técnicamente dulce, adelante y hazlo.”
Al final del día, mucho discurso ténico, mucha peocupación sobre su impato en el mercado pero ni una sola referencia a la ética en su uso y mucho menos sobre la responsabilidad moral de sus desarrolladores y usuarios.
Fuente: WIRED/CanalesTI, FRB.