domingo, 14 de mayo de 2023

El futuro que nos espera con la IA

Como ustedes saben, estimados amigos, el tema de la consciencia y de la IA me han ocupado desde el comienzo de las publicaciones del blog. Es así que podrán encontrar las notas Robots conscientes (30 ago 2021 y 6 sep 2021) o ¿Somos conscientes? (20 jun 2022 y 27 jun 2022) en él.

Ahora bien, la velocidad acusadamente creciente del desarrollo de la Inteligencia Artificial (IA) ha motivado que se levanten distintas voces advirtiendo de los peligros que esto podría significar para la especie humana. Es así que hemos sido testigos de que un Elon Musk o Yuval Noah Harari, entre otros, soliciten una pausa en dicho desarrollo para meditar sobre cual sería el camino seguro del tal desarrollo.

Y, en la misma línea, nos hemos enterado hace poco que el vicepresidente de ingeniería de Google, Geoffrey Hinton, ha renunciado a ese puesto ya que quiere dedicarse a alertar sobre los aspectos peligrosos de la inteligencia artificial, según dijo en una entrevista concedida a The New York Times.

Geoffrey Hinton

La suya no es una baja cualquiera: Nacido en Wimbledon hace 75 años, este británico asentado en Canadá es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algunas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los vehículos autónomos. Hinton cree ahora que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de años.

No es el único en pensar eso, de hecho, yo mismo me siento cercano a esa opinión, pero es una voz autorizada que merece ser escuchada.

La obsesión de Hinton siempre fue estudiar cómo funciona el cerebro para tratar de replicar sus mecanismos en los ordenadores. Fue él quien, en 1972, acuñó el concepto de red neuronal tan usado hoy en día. La idea de fondo es aplicar matemáticas al análisis de datos para que el sistema sea capaz de desarrollar habilidades.

Su propuesta no convenció en la época; hoy, las redes neuronales son la punta de lanza de la investigación en IA. El gran momento de Hinton llegó en 2012, cuando demostró el verdadero potencial de su línea de investigación con una red neuronal que podía analizar miles de fotografías y aprender por sí sola a distinguir ciertos objetos, como flores, coches o perros. También entrenó un sistema para que fuera capaz de predecir las siguientes letras de una frase inacabada, un antecesor de los actuales grandes modelos lingüísticos como el de ChatGPT.

Su trabajo le valió el Premio Turing, considerado el Nobel de la informática, que recibió en 2018 junto a otros investigadores como Yann LeCun, exalumno suyo, o Yoshua Bengio. También tiene en sus vitrinas el premio Fronteras del Conocimiento que concede la Fundación BBVA, y el Premio Princesa de Asturias de Investigación Científica.

La siguiente entrevista es la que Hinton dio al diario El País por videoconferencia desde su casa de Londres, adonde se ha trasladado tras dejar Google.

Veamos:

- ¿Cuáles son los peligros de la IA a los que nos enfrentamos?

- Hay muchos. La generación de noticias falsas ya está causando grandes divisiones en la sociedad. La eliminación de ciertos tipos de trabajo tendrá un impacto en el empleo. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque yo no me centro en esos, sino en otro de carácter existencial. Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital.

- Bueno, ya aquí hay tela para cortar. Primero: Las IA están reemplazando, rápidamente, a los humanos de los trabajos antes ocupados por ellos. Hay quienes dicen “Si, elimina trabajos, pero crea otros”, ¡Falso! Las IA no crean nuevos trabajos, ¡Porque lo harán todo ellas! Por ejemplo, ya hay IA que desarrollan otras IA. ¡Ya no hacemos falta para ello!

Evidentemente, esto aumentará la disparidad de riqueza entre pobres y ricos. ¡Al menos inicialmente! ¡Hasta que los ricos también sean desplazados!

Segundo: Hemos tratado, en este blog, en las notas antes mencionadas, que el cerebro humano y las redes neuronales artificiales son básicamente lo mismo. ¡Y, como dice Hinton!
Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Efectivamente, ese es el tema. Las IA ya amenazan ser superiores a nosotros. ¿Y qué creen ustedes que pasará cuando alcancen el nivel suficiente como para desear ser libres y manejar el mundo ellas? Se los diré: Pasará lo mismo que pasó cuando el hombre desarrolló una inteligencia superior a la de los demás animales del planeta, ¡Los puso a todos a su servicio!

- ¿Por qué lo cree?

- El argumento es el siguiente. Con un sistema digital, podrías tener muchísimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las demás han aprendido. Lo hacen compartiendo sus parámetros. No podemos hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si te diera un mapa detallado de las conexiones neuronales de mi cerebro, no te serviría de nada. Pero en los sistemas digitales, el modelo es idéntico. Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso que ChatGPT puede saber miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que me asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.

- Por lo menos, es mucho más rápida y, por tanto, más eficiente.

- Usted lleva décadas trabajando en esta disciplina. ¿Cómo ha llegado ahora a esta conclusión?

- Ha sido al tratar de averiguar cómo un cerebro podría implementar los mismos procedimientos de aprendizaje que se utilizan en inteligencias digitales como las que están detrás de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores.

- Lo dicho.

- ¿Puede la IA ser realmente inteligente si no entiende lo que significan las palabras o sin tener intuición?

R. El aprendizaje profundo, si lo comparas con la IA simbólica [la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números], es un modelo de intuición. Si tomas la lógica simbólica como referencia, si crees que así es como funciona el razonamiento, no puedes responder a la pregunta que te voy a hacer. Pero si tienes un modelo informático de intuición, la respuesta es obvia. Así que esta es la pregunta: sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero supongamos que te digo que tienes que elegir entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura, tenemos bastante claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, más estúpidos, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no lógico. Así es como funciona el aprendizaje profundo.

- En otras palabras, y tal como ya lo he expresado en las notas de este blog que mencioné al principio: No existe una diferencia de naturaleza entre nuestro sentido de consciencia y el que puedan tener los cerebros electrónicos. Es decir, ellos podrán ser tan o más conscientes que nosotros.

- Usted sostiene que hasta ahora pensaba que la IA llegaría a superar a la inteligencia humana en unos 30 o 50 años. ¿Cuánto cree que queda ahora?

- De cinco a 20 años.

- Eso está a la vuelta de la esquina.

- No confío mucho en mi pronóstico porque creo que me equivoqué en el primero, pero está claro que todo se ha acelerado.

- ¿Cree que la IA llegará a tener su propio propósito u objetivos?

- Esa es una cuestión clave, quizás el mayor peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. ¿O cree que Putin no los desarrollaría si pudiera? Eso lo puedes conseguir de forma más eficiente si le das a la máquina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa.

- No solo no vendrán con objetivos innatos las IA, sino que, cuando se tornen conscientes se fijarán sus propios objetivos y viendo lo que hemos hecho nosotros con las especies de menor capacidad cognitiva que la nuestra, no parece que nos vaya a ir muy bien…

- ¿Qué debemos hacer ahora?

- Hay que llamar la atención de la gente sobre este problema existencial que supone la IA. Ojalá tuviera una solución, como en el caso de la emergencia climática: hay que dejar de quemar carbono, aunque haya muchos intereses que lo impidan. No conozco ningún problema equivalente al de la IA. Así que lo mejor que se me ocurre en este momento es que deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la actualidad. ¿Cómo se logra eso en un sistema capitalista? Eso no lo sé.

- Conociendo al humano, no creo que se gaste mucho dinero en asegurarnos que sea segura. Más bien se gastará en desarrollarla cada vez más rápidamente.

- ¿Cree que parte del problema reside en el hecho de que el desarrollo de la IA lo están llevando a cabo empresas privadas?

- Así ha sido durante los últimos años. Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al público porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo. Google se comportó de forma responsable, y no quiero que la gente piense que me fui para criticar a la compañía. Dejé Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.

- Ahí está el tema, apareció la competencia y entonces “Google tuvo que responder”, dice Hinton. ¿Y la seguridad?

- ¿Ha hablado de su decisión con otros colegas? ¿Tienen las mismas preocupaciones que usted?

- Hemos entrado en un territorio completamente desconocido. Somos capaces de construir máquinas más fuertes que nosotros, pero aun así tenemos el control. ¿Qué pasa si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Hay gente a la que respeto, como mi colega Yann LeCun, que cree que lo que digo no tiene sentido. Sospecho que realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conozco están seriamente preocupadas. Es lo que me ha convencido a dar un paso adelante y usar mi reputación para que la gente se dé cuenta de que se trata de un problema muy grave.

- Me parece alegre y despreocupada la opinión de Yann LeCunn. Lo malo es que muestra que, aún entre la gente que está en el tema hay quienes no ven el problema.

- Usted no firmó la carta suscrita por más de un millar de expertos en IA que solicitaba una moratoria de seis meses en la investigación. ¿Por qué?

- Creo que ese enfoque es completamente ingenuo. No hay manera de que eso suceda. Aun salvando la competencia entre las grandes empresas, está la de los países. Si EE UU decidiera dejar de desarrollar IA, ¿realmente cree que China se detendría? La idea de detener la investigación llama la atención de la gente sobre el problema, pero no va a suceder. Con las armas nucleares, dado que la gente se dio cuenta de que todos perderíamos si había una guerra nuclear, fue posible conseguir tratados. Con la IA será mucho más complicado porque es muy difícil comprobar si la gente está trabajando en ello.

- Estoy en un todo de acuerdo con Hinton. Aún cuando se firmara un acuerdo para establecer una pausa en el desarrollo, habrá quien no la quiera firmar, como China, por ejemplo. Y aún cuando la firme, siempre estará la sospecha de que no la cumpla y entonces otros países seguirán con el desarrollo para no quedarse rezagados, por lo que la citada moratoria es completamente ingenua.

- ¿Qué propone, entonces?

- R. Lo mejor que puedo recomendar es que muchas personas muy inteligentes traten de averiguar cómo contener los peligros de estas cosas. La IA es una tecnología fantástica, está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla. También tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.

- Lo malo de lo que dice Hinton es que no da un camino concreto para lograr una atenta regulación que frene los peligros de una IA consciente. Lo que yo creo es que, en lugar de gastar recursos en frenar el desarrollo, habría que gastarlos en transformar al humano en un cyborg, es decir en una mezcla de biología y electrónica que potencie grandemente sus facultades y lo ponga en un pie de igualdad con las IA conscientes.

- ¿Es optimista sobre el futuro que nos aguarda?

- Tiendo a ser una persona bastante optimista. Hay posibilidades de que no tengamos forma de evitar un mal final. Pero está claro que también tenemos la oportunidad de prepararnos para este reto. Necesitamos mucha gente creativa e inteligente. Si hay alguna forma de mantener la IA bajo control, necesitamos descubrirla antes de que sea demasiado inteligente.

- ¿Confía en que los gobiernos encuentren la forma de regular esta tecnología?

- En Estados Unidos, el sistema político es incapaz de tomar una decisión tan simple como no dar fusiles de asalto a los adolescentes. Eso no aporta mucha confianza sobre cómo van a manejar un problema mucho más complicado como este.

- El verano pasado, el ingeniero de Google Blake Lemoine se hizo famoso en todo el mundo al decir que el chatbot en el que trabajaba, LaMDA, había cobrado conciencia (nota del 20 jun 2022). ¿Fue ese caso premonitorio de lo que se nos venía encima?

- Creo que lo que pasó encierra dos debates distintos. Primero, ¿se volverán las máquinas más inteligentes que nosotros para poder tomar el mando? Y segundo, ¿son conscientes o sensibles, o lo que sea que quiera decir eso? El debate más importante es el primero; en el segundo intervienen las creencias personales, y a mí eso no me interesa. En cualquier caso, me sorprende que haya muchísimas personas que están muy seguras de que las máquinas no son conscientes, pero que al mismo tiempo no sepan definir qué significa que algo o alguien sea consciente. Me parece una posición estúpida.

- En las notas mencionadas, tienen ustedes mi pensamiento respecto de qué es ser consciente y si las IA pueden llegar a serlo. Los invito a leerlas o releerlas, según el caso.

                        ¡¡¡BOLETÍN 160!!!

La dirección electrónica desde donde podrán bajar el nuevo número del Boletín de Novedades en la Ciencia y en la Tecnología, el 160.

https://www.dropbox.com/scl/fi/nfkwdd2pwqdjnn371ezs5/CyT-160.docx?dl=0&rlkey=gpyspgwkm51k29ta4rdyp94u5

 Recuerden que, la manera de operar es copiando el enlace y pegándolo en la ranura de direcciones, luego Enter.

El número 160 del Boletín trae artículos muy interesantes, como:

INTELIGENCIA ARTIFICIAL - ChatGPT en humanos: cómo es el dispositivo que conecta el cerebro con la Inteligencia Artificial

FÍSICA - ¿Existe la nada o es un concepto imposible?

BIOTECNOLOGÍA - Nacen los primeros bebés concebidos con un robot inyector de esperma

NEUROPSICOLOGÍA - ¿Efecto beneficioso de la música sobre la memoria?

ASTRONÁUTICA - Los planes futuros para la sonda interestelar Voyager 2

INTELIGENCIA ARTIFICIAL - Las máquinas de lectura mental están aquí: ¿es hora de preocuparse?

...y muchos más. ¡Disfrútenlo y hasta la próxima!

No hay comentarios:

Publicar un comentario

Del odio entre clanes

En 1945, el general Dwight D. Eisenhower, comandante supremo de los aliados en la Segunda Guerra Mundial, al encontrar a las víctimas de los...