Geoffrey Hinton: ¿Por qué uno de los padres de la IA renunció a Google?
Leé hasta el final para que unos algoritmos te vendan una birra
Los padres del mañana
Si alguna vez alguien le pone un cumpleaños al nacimiento de este nuevo capitalismo-basado-en-IA, el 27 de mayo de 2015 creo que tiene serias chances de llevarse el título.
Ese día la revista Nature publicó un paper que, sin saberlo, iba a tener consecuencias a una escala absolutamente inimaginable: un artículo llamado “Deep Learning” (la traducción común es "aprendizaje profundo”), en el que los investigadores Yann LeCun, Yoshua Bengio y Geoffrey Hinton explicaron:
“El deep learning permite que los modelos computacionales de múltiples capas aprendan representaciones de los datos con múltiples niveles de abstracción. Esto permite descubrir estructuras intrincadas en grandes datasets, a través del uso del algoritmo backpropagation, que indica cómo deben ser los parámetros internos de una máquina para computar la representación de la capa que le antecede.”
Simplificando un poco, el backpropagation es el algoritmo que hace que las máquinas aprendan. Tan importante fue este desarrollo que hizo que en 2018 los galardonaran con el Premio Turing, uno de los reconocimientos más importantes en el ámbito de las ciencias computacionales.
No te preocupes que hasta acá llegó el contenido técnico, pero más allá de los detalles de cómo funciona, lo importante es que el algoritmo de backpropagation1 es el corazón (o el cerebro) de estos modelos de procesamiento de lenguaje natural, y lo que logró que eventualmente llegaran a este nivel de realismo que es parte de nuestra vida cotidiana desde hace unos meses.
Volviendo a nuestro presente, todo parece indicar que 2023 va a ser un antes y después a escala civilizatoria gracias a la aparición de los modelos de IA que ahora parecen estar hasta en la sopa. Y así como usarlos es cada vez más y más fácil, también parece que están empezando a darse los primeros pasos para la masificación de una charla seria sobre el asunto.
De a poco el debate parece estar rebalsando el mundillo de datos y colándose en la agenda comunicacional a una escala al menos un poquito más amplia, y eso me parece digno de celebración.
En esa línea, se viene dando un debate bastante interesante —con tantas buenas intenciones como hipocresías, controversias y pases de factura entre big corpos— que tomó envión con esa célebre carta/llamamiento a “detener el desarrollo de la IA por seis meses” de la que hablé un par de envíos atrás.
En referencia a este trío de muchachos que desarrollaron una matemática tan avanzada que hizo que las máquinas aprendan a aprender, Bengio y LeCun se pararon en veredas opuestas. Mientras que el primero firmó la carta en calidad de jefe de un instituto dedicado a la investigación científica-ética de IA, el segundo tildó a la iniciativa de ser cercana al “oscurantismo medieval”.
Ahora, unas semanas después, tenemos unas pistas de dónde está parado el tercer mosquetero de las redes neuronales. Hace un par de días, Hinton anunció que renuncia a su posición como vicepresidente y asesor en ingeniería en Google, para poder dedicarse de forma completa y sin ataduras a hablar sobre las amenazas de la IA para la sociedad moderna.
Moderadamente deprimido
Antes que nada, quiero ser muy meticuloso y responsable con la información porque también hubo mucho revuelo y alarmismo.
El mismo Hinton se encargó de aclarar que no es que renuncia porque Google haya actuado de forma irresponsable, pero que esta decisión le va a permitir dedicarse a lo que de verdad es importante, y agregó que ya se siente viejo para dedicarse al trabajo de investigación híper técnica.
Dicho esto, en una entrevista al MIT Technology Review sostuvo que el estado actual de las cosas es el principio de una diferencia radical entre la inteligencia animal y la artificial. Y según él, la segunda es completamente distinta y mejor que la primera.
“Si la superinteligencia va a ser buena o mala depende de si sos optimista o pesimista. Preguntale a alguien cuáles son las chances de que pase algo malo —como una enfermedad terrible o un accidente de auto—, y un optimista te va a decir que son del 5% y un pesimista te va a garantizar que va a ocurrir. Pero una persona moderadamente deprimida te puede ser que las chances son del 40%, y por lo general está en lo correcto.”
¿Y cómo se siente, don Hinton? “Moderadamente deprimido”, dice, argumentando entre otras cosas que:
Los medios de comunicación van a tener cada vez más contenido generado por IA, y eso va a distorsionar la capacidad de evaluar la mismísima realidad,
Los modelos de IA van a traer una ola de desempleo masivo a través del reemplazo de fuerza laboral,
Pero además, que la generación de código automático a través de IA eventualmente va a generar programas que pongan a personas en riesgo, y según Hinton, intentos como BabyAGI o AutoGPT que básicamente conectan múltiples algoritmos unos con otros para generar pequeñas tareas, son un paso que puede ir en esa dirección.
En el contexto en el cual el mismo CEO de Google, Sundar Pichai, admitió que no entienden del todo Bard —el producto / modelo de lenguaje con el que le quieren competir a ChatGPT—, Hinton, al reflexionar sobre todo el trabajo que hizo dentro de la compañía, reconoció en una entrevista que brindó al New York Times: “Me consuelo con una excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”.
Un algoritmo que cargue tu cruz
Ahroa sí, te prometo que ya está el segmento apocalíptico del newsletter. Para que no te caiga tan mal el mate o café con el que estés acompañando esto, vale la pena también destacar que en una charla con la BBC (el buen Hinton tuvo una auténtica gira de prensa) le consultaron sobre la carta que mencioné hace unos párrafos, y dijo que no le parecía firmarla porque “en el corto plazo la IA va a traer más beneficios que riesgos”.
También mencionó que él es un experto en ciencia, y no en política pública, y por eso quiere ayudar a que los gobiernos se tomen la tarea de velar por estas cosas de manera responsable y seria.
Es muy interesante contrastar esta perspectiva con la de LeCun, que está en las antípodas absolutas: él considera que estamos hablando del inicio de “un nuevo renacimiento para la humanidad”, y publicó un extensísimo artículo llamado A Path Towards Autonomous Machine Intelligence (“Un camino hacia la Inteligencia Autónoma de la Máquina”) en el que explica cómo puede hacerse posible.
Bengio, por su parte, cuando fue consultado por la decisión de Hinton, afirmó que su colega “merece el mayor crédito por muchas de las ideas que hicieron al deep learning posible, y asumo que eso también hace que sienta un particular sentido de responsabilidad en alertar al público acerca de los potenciales riesgos en la IA”.
En un plano un poquito más personal, la historia de Hinton me hace acordar a la de Robert Oppenheimer: el físico nuclear que fue responsable por la bomba atómica, y que en buena parte vivió atormentado por ello el resto de sus días (ya se viene la biopic de Christopher Nolan).
Es muy célebre esa terrible y escalofriante entrevista en la que Oppenheimer hace una cita del Bhagavad Gita y resume todo lo que siente en una frase: “Ahora soy la muerte encarnada, la destructora de mundos (…) En una suerte de sentido crudo que ninguna vulgaridad, ningún humor, ánimo o exageración puede extinguir, los físicos hemos conocido el pecado, y este es un conocimiento que no podemos perder”.
Pero la clave para salir de eso está en algo que para mí orienta la decisión de Hinton, y que es también algo que el mismo Oppenheimer mencionó en otra entrevista años más tarde: la posibilidad concreta de hacer algo al respecto.
“Yo no cargo el peso personalmente de Hiroshima y Nagasaki en mi consciencia. Los científicos no somos delincuentes: nuestro trabajo ha cambiado las condiciones en las que vive la humanidad, pero el uso que se le han dado a esos cambios es responsabilidad de los gobiernos, no de los científicos".
Sigo sosteniendo que no es que Skynet nos va a dominar. Pero para que eso no ocurra, es necesario que los popes de la ciencia y la tecnología no sólo expandan su mente y su cerebro, sino sus ojos y corazón (bueeeena, poeta).
Así que celebro la decisión de Hinton: no habrá hecho la bomba atómica ni el fin del mundo, pero sí fue artífice necesario del fin de un mundo: aquel en el que vivíamos antes de ese día del 2015 en el que estos tres muchachos largaron al mundo el Pequeño Manual del Chatbot Ilustrado.
¡Hasta la próxima!
¡Gracias por haber llegado hasta acá! Antes que nada un pequeño comentario editorial: el sábado pasado no hubo mail porque me estaba mudando. Si extrañaste el envío, hacémelo saber que siempre es un mimo al corazón ✨
Ahora sí, los links de siempre:
¿Te quedaste con ganas de profundizar en deep learning? Un gran amigo y ávido léctor de Buena Data (¡gracias Nahui por el aguante de siempre!) me compartió la mejor guía para un público no técnico sobre el tema, y podés verla acá.
Por si no lo escuchaste, en el capítulo 4 de Buena Data hablo sobre el Procesamiento de Lenguaje Natural: desde el autocorrector hasta ChatGPT y todas estas tecnologías que le dieron un uso muy tangible a algo tan falopa y abstracto como el concepto de backpropagation.
Es un poco tangencial al mundo de datos, pero no deja de parecerme tan delirante como tristísimo: resulta que hay un videojuego llamado War Thunder, que es un simulador bélico que tiene tal grado de realismo que el hecho de que los jugadores postearan en redes sociales sobre el juego representó un riesgo de seguridad para Estados Unidos. Si alguien hiciera ficción sobre esto pensarías que es exagerado, pero es posta.
¿Creías que las publicidades eran insoportables? Preparate porque se viene una tanda generada enteramente por IA: hicieron una publicidad para una marca de cerveza usando una cruza de algoritmos y el resultado es tan creepy como gracioso.
Como muchas de estas cosas, en rigor, ya había algunos papers escritos sobre el tema desde los 80, pero se mantenían en el ámbito de lo teórico y sin encontrarle implementaciones viables o útiles.