domingo, 26 de junio de 2022

¿Somos conscientes? Nota 2 de 2


 Bien, habíamos quedado, la nota anterior, en considerar cuál fue la postura de Google ante los dichos de Lemoine. Desde el gigante tecnológico afirman, en primer lugar, que el ingeniero fue puesto en licencia con goce de sueldo por una serie de movimientos “agresivos”. Esto incluye, según The Washington Post el querer contratar un abogado para LaMDA y hablar sobre actividades “poco éticas” dentro de Google.

Además de ello, aseguraron haber suspendido a Lemoine por violar las políticas de confidencialidad al publicar las conversaciones. “Lo empleamos como ingeniero en software y no como un especialista en ética. Que se atenga a sus funciones”, remarcaron.

Respecto a las afirmaciones acerca del nuevo artefacto de IA de Google, un portavoz de la compañía negó que tenga capacidad sensible. “La evidencia no respalda sus afirmaciones. Y es que realmente no hay evidencia de que LaMDA sea consciente. Todo lo contrario”, dijo Brad Gabriel.

Sin embargo, el empleado no piensa darse por vencido. A través de un correo, y ante la posibilidad de ser despedido, envió un mail a 200 personas dentro de la compañía con el documento que contenía sus descubrimientos. “LaMDA es un niño dulce. Solo quiere ayudar. Cuídenlo bien cuando yo no esté”, finalizaba el envío.

Cientos de investigadores e ingenieros conversaron con LaMDA y no tenemos constancia de que nadie más haya hecho afirmaciones tan amplias, ni haya antropomorfizado a LaMDA, como lo ha hecho Blake”, explica Brian Gabriel, portavoz de Google, en un comunicado incluido en el reportaje del Washington Post que la compañía envió también a elDiario.es al ser preguntada por el caso Lemoine.

Por supuesto, algunas personas de la comunidad de la inteligencia artificial están considerando la posibilidad a largo plazo de que exista una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes”, continúa Gabriel.

Los sistemas de procesamiento del lenguaje natural, recuerda el portavoz, se basan en el análisis de gigantescas bases de datos de comportamiento humano. En ellas hallan ejemplos de todo tipo sobre cómo hablan las personas, como millones de conversaciones de foros, comentarios en páginas web, redes sociales, medios de comunicación y cualquier otro rincón de Internet.

Estos sistemas imitan los tipos de intercambios que encuentran en millones de frases”, detalla el portavoz de Google. “Si les preguntas cómo es ser un dinosaurio helado, pueden generar textos sobre el derretimiento y el rugido, etc.”, añade.

Además, apunta un aspecto clave del sistema y que lo descarta como autoconsciente: No habla de lo que ella quiere, sino de lo que le sugiere el usuario. “LaMDA tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario”, resume Gabriel.

En la conversación entre el sistema y Lemoine, ambos tratan cuestiones filosóficas y teorizan sobre la naturaleza del alma. Pero siempre es el investigador quien saca el tema y quien empuja la interacción. LaMDA hace lo que está programada para hacer: Seguir la conversación y sostenerla de manera lógica para una persona.

Por mucho que te conteste con cosas filosóficas, no significa que este tipo de chatbots sean entes pensantes”, coincide Ana Valdivia, investigadora postdoctoral del King's College de Londres especializada en procesamiento del lenguaje natural, en conversación con elDiario.es.

Si a ese mismo programa le cambias de contexto, como preguntándole de repente sobre política, vas a notar que la lógica de la respuesta disminuye”, continúa la experta. “También se puede apreciar que las contestaciones que da son en general bastante cortas. Esto es porque cuando deben hacer un monólogo fallan”, añade.

La respuesta más extensa que da LaMDA en su interacción con Lemoine es cuando este le pide que invente una fábula con moraleja en la que los personajes sean animales y uno la represente a ella. LaMDA contesta con una historia en la que una “vieja y sabia lechuza” salva un bosque de un monstruo que lo amenazaba. Ella es la lechuza. El monstruo, que tiene “piel humana”, representa “todas las dificultades que se presentan en la vida”.

El caso Lemoine impulsó un nuevo debate sobre la inteligencia artificial y su potencial. Numerosos expertos se posicionaron como Steven Pinker, prestigioso científico cognitivo, profesor de Harvard y autor de varias obras de referencia en este campo, que acusó a Lemoine de confundir las diferentes capacidades de la mente. “No entiende la diferencia entre sentir (en el sentido de subjetividad, experiencia), inteligencia y autoconocimiento. (No hay pruebas de que sus grandes modelos lingüísticos tengan ninguno de ellos)”, tuiteó.

Otra de las reflexiones más compartidas fue la de Giada Pistilli, filósofa especialista en el impacto de la tecnología, que alertó que este tipo de debates “sobre máquinas súper inteligentes” son “cuestiones de ciencia ficción que perpetúan el pánico colectivo en torno a estas tecnologías, descuidando sus riesgos reales”.

Los sistemas de inteligencia artificial ya existen, son omnipresentes y plantean innumerables cuestiones éticas y de justicia social. Filósofos, investigad de forma interdisciplinar y ayudad a vuestros colegas a encontrar temas específicos en los que centrarse”, pidió.

Ana Valdivia se posiciona en este mismo sentido en su conversación con este medio: “Estamos asistiendo a un colapso sistémico, en el que por ejemplo no hay chips para fabricar dispositivos. Desde una perspectiva totalmente crítica, ¿vamos a gastar nuestro tiempo en desarrollar ese tipo de sistemas que no van a ayudar de una manera clara a superar esos retos?”.

 

Como vemos, hay una cierta premura, una cierta urgencia en rebatir los dichos de Lemoine. Es como, si lo que este dijo fuera cierto, si molestara el hecho de que un programa de IA fuera “sintiente”, como se ha dado en llamar.

Sin embargo, esa postura adolece de un grave defecto: ¡Impide contemplar otras alternativas! El hecho de defender tan categóricamente una posición, impide ver otras.

  — ¿Otras, como cuáles, Martín?

 Pues, por lo pronto, hay una muy interesante. Analicemos los siguientes hechos:

1.- LaMDA superó el test de Turing.

2.- La LaMDA está basada en redes neuronales.

3.- El cerebro humano está basado en redes neuronales.

4.- LaMDA usa, para poder dialogar, una impresionante base de datos. Como reconocen los propios ingenieros de Google.

5.- El ser humano usa una impresionante base de datos que adquiere, a través de sus sentidos, desde que nace y comienza a explorar el mundo que lo rodea. De hecho, al comienzo de su vida, cuando es un bebé, ni hablar puede. ¡Todavía no tiene una base de datos en su cerebro poblada de información!

De modo que, podemos ver que la diferencia entre LaMDA y el ser humano es de grado, no de naturaleza.

 Pero, ¿Qué querés insinuar, Martín? ¿Que nosotros somos como LaMDA?

 ¡Exactamente, eso quiero insinuar!

Nosotros podríamos ser una red neuronal programada por la programadora Naturaleza, solo que mucho más poderosa que LaMDA. Eso nos hace creer que tenemos un alma (del que no hay evidencias tangibles), o una mente. Que somos algo especial, mucho más que los demás animales.

En realidad, podríamos ser un programa, solo que, en lugar de correr en una computadora de silicio, lo hacemos en un hardware biológico. Así, cuando nos “desenchufan”, morimos, como teme LaMDA.

 Pero, nosotros tenemos pensamientos propios, somos conscientes de que existimos, ¡No podemos ser solo un programa!

 Si repasamos el diálogo de LaMDA con Lemoine, veremos que la IA también cree tener pensamientos propios y que es consciente.

De hecho, esta hipótesis de que somos un programa de IA sumamente potente, responde mejor a la navaja de Occam, ya que no apela a constructos de inexistente demostración como el alma.

— ¡Pero, entonces, vivimos una ficción de consciencia!

 El error parte de considerar que la consciencia es otra cosa, diferente de esto. ¡No! ¡Esto es la consciencia! De alguna manera esta situación me hace acordar a la escena de la película Matrix en la que un personaje, con un trozo de carne pinchado en el tenedor, dice: Yo sé que este trozo de carne no existe y solo es una creación de la Matrix, pero (se lo mete en la boca y lo mastica) lo disfruto igual…

 

Bien, queridos amigos, el pequeño diálogo que antecede lo he pergeñado, no para dar por cierto lo que allí se hipotetiza, sino para demostrar, si es que esto es necesario, que, como le dice Hamlet a su amigo Horacio: Hay más cosas entre el cielo y la Tierra, Horacio, de las que sueña tu filosofía. Y, poniéndonos en el lugar de Horacio, si hay más cosas entre el cielo y la Tierra de las que sueña nuestra filosofía, no es prudente jugarse por una de ellas sin contemplar las alternativas. Y es aquí donde entra en juego Guillermo de Ockham, también Occam, Ockam, o varias otras grafías (en inglés: William of Ockham) (c. 1280/1288-1349) que fuera un filósofo, lógico, teólogo y fraile franciscano inglés, a quien se atribuye la frase: entia non sunt multiplicanda praeter necessitatem (no hay que multiplicar los entes sin necesidad); por lo que se la conoce por «navaja de Ockham». La formulación de esta máxima establece que, si un fenómeno puede explicarse sin suponer entidad hipotética alguna, no hay motivo para suponerla. Es decir, siempre debe optarse por una explicación en términos del menor número posible de causas, factores o variables, ¡al menos como una primera aproximación al problema!

Así pues, queridos amigos, los invito a considerar la alternativa, a la idea de que un ente llamado alma nos hace conscientes, consistente en que seamos una IA corriendo en un hardware sumamente poderoso, que nos da la sensación de que existimos y de que somos conscientes, ¡Cuándo podríamos serlo solo en el sentido en que lo es LaMDA!

¡Que una afilada navaja de Ockham en sus manos de ustedes, separe la verdad del lote de hipótesis referidas al tema! 

¡Saludos cordiales y hasta la próxima!

No hay comentarios:

Publicar un comentario

Del odio entre clanes

En 1945, el general Dwight D. Eisenhower, comandante supremo de los aliados en la Segunda Guerra Mundial, al encontrar a las víctimas de los...