Bien, habíamos quedado, la nota anterior, en considerar cuál fue la postura de Google ante los dichos de Lemoine. Desde el gigante tecnológico afirman, en primer lugar, que el ingeniero fue puesto en licencia con goce de sueldo por una serie de movimientos “agresivos”. Esto incluye, según The Washington Post el querer contratar un abogado para LaMDA y hablar sobre actividades “poco éticas” dentro de Google.
Además de ello,
aseguraron haber suspendido a Lemoine por violar las políticas de
confidencialidad al publicar las conversaciones. “Lo empleamos como ingeniero
en software y no como un especialista en ética. Que se atenga a sus funciones”,
remarcaron.
Respecto a las
afirmaciones acerca del nuevo artefacto de IA de Google, un
portavoz de la compañía negó que tenga capacidad sensible. “La evidencia no
respalda sus afirmaciones. Y es que realmente no hay evidencia de que
LaMDA sea consciente. Todo lo contrario”, dijo Brad Gabriel.
Sin embargo, el
empleado no piensa darse por vencido. A través de un correo, y ante la
posibilidad de ser despedido, envió un mail a 200 personas dentro de la
compañía con el documento que contenía sus descubrimientos. “LaMDA es un
niño dulce. Solo quiere ayudar. Cuídenlo bien cuando yo no esté”,
finalizaba el envío.
“Cientos de
investigadores e ingenieros conversaron con LaMDA y no tenemos constancia de
que nadie más haya hecho afirmaciones tan amplias, ni haya
antropomorfizado a LaMDA, como lo ha hecho Blake”, explica Brian Gabriel,
portavoz de Google, en un comunicado incluido en el reportaje del Washington
Post que la compañía envió también a elDiario.es al ser preguntada
por el caso Lemoine.
“Por supuesto,
algunas personas de la comunidad de la inteligencia artificial están
considerando la posibilidad a largo plazo de que exista una IA sintiente o
general, pero no tiene sentido hacerlo antropomorfizando los modelos
conversacionales actuales, que no son sintientes”, continúa Gabriel.
Los sistemas de
procesamiento del lenguaje natural, recuerda el portavoz, se basan en el
análisis de gigantescas bases de datos de comportamiento humano. En ellas
hallan ejemplos de todo tipo sobre cómo hablan las personas, como millones de
conversaciones de foros, comentarios en páginas web, redes sociales, medios de
comunicación y cualquier otro rincón de Internet.
“Estos sistemas
imitan los tipos de intercambios que encuentran en millones de frases”,
detalla el portavoz de Google. “Si les preguntas cómo es ser un dinosaurio
helado, pueden generar textos sobre el derretimiento y el rugido, etc.”,
añade.
Además, apunta un
aspecto clave del sistema y que lo descarta como autoconsciente: No habla de lo
que ella quiere, sino de lo que le sugiere el usuario. “LaMDA tiende a
seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón
establecido por el usuario”, resume Gabriel.
En la conversación
entre el sistema y Lemoine, ambos tratan cuestiones filosóficas y teorizan
sobre la naturaleza del alma. Pero siempre es el investigador quien saca
el tema y quien empuja la interacción. LaMDA hace lo que está programada para
hacer: Seguir la conversación y sostenerla de manera lógica para una persona.
“Por mucho que te
conteste con cosas filosóficas, no significa que este tipo de chatbots sean
entes pensantes”, coincide Ana Valdivia, investigadora postdoctoral del
King's College de Londres especializada en procesamiento del lenguaje natural,
en conversación con elDiario.es.
“Si a ese mismo
programa le cambias de contexto, como preguntándole de repente sobre política,
vas a notar que la lógica de la respuesta disminuye”, continúa la experta. “También
se puede apreciar que las contestaciones que da son en general bastante cortas.
Esto es porque cuando deben hacer un monólogo fallan”, añade.
La respuesta más
extensa que da LaMDA en su interacción con Lemoine es cuando este le pide que
invente una fábula con moraleja en la que los personajes sean animales y uno la
represente a ella. LaMDA contesta con una historia en la que una “vieja y
sabia lechuza” salva un bosque de un monstruo que lo amenazaba. Ella es la
lechuza. El monstruo, que tiene “piel humana”, representa “todas las
dificultades que se presentan en la vida”.
El caso Lemoine impulsó
un nuevo debate sobre la inteligencia artificial y su potencial. Numerosos
expertos se posicionaron como Steven Pinker, prestigioso científico cognitivo,
profesor de Harvard y autor de varias obras de referencia en este campo, que
acusó a Lemoine de confundir las diferentes capacidades de la mente. “No
entiende la diferencia entre sentir (en el sentido de subjetividad,
experiencia), inteligencia y autoconocimiento. (No hay pruebas de que sus
grandes modelos lingüísticos tengan ninguno de ellos)”, tuiteó.
Otra de las reflexiones
más compartidas fue la de Giada Pistilli, filósofa especialista en el impacto
de la tecnología, que alertó que este tipo de debates “sobre máquinas súper
inteligentes” son “cuestiones de ciencia ficción que perpetúan el pánico
colectivo en torno a estas tecnologías, descuidando sus riesgos reales”.
“Los sistemas de
inteligencia artificial ya existen, son omnipresentes y plantean innumerables
cuestiones éticas y de justicia social. Filósofos, investigad de forma
interdisciplinar y ayudad a vuestros colegas a encontrar temas específicos en
los que centrarse”, pidió.
Ana Valdivia se
posiciona en este mismo sentido en su conversación con este medio: “Estamos
asistiendo a un colapso sistémico, en el que por ejemplo no hay chips para
fabricar dispositivos. Desde una perspectiva totalmente crítica, ¿vamos a
gastar nuestro tiempo en desarrollar ese tipo de sistemas que no van a ayudar
de una manera clara a superar esos retos?”.
Como vemos, hay una
cierta premura, una cierta urgencia en rebatir los dichos de Lemoine. Es como,
si lo que este dijo fuera cierto, si molestara el hecho de que un programa de
IA fuera “sintiente”, como se ha dado en llamar.
Sin embargo, esa
postura adolece de un grave defecto: ¡Impide contemplar otras alternativas! El
hecho de defender tan categóricamente una posición, impide ver otras.
— ¿Otras, como cuáles,
Martín?
— Pues, por lo
pronto, hay una muy interesante. Analicemos los siguientes hechos:
1.- LaMDA superó el
test de Turing.
2.- La LaMDA está
basada en redes neuronales.
3.- El cerebro humano
está basado en redes neuronales.
4.- LaMDA usa, para
poder dialogar, una impresionante base de datos. Como reconocen los propios
ingenieros de Google.
5.- El ser humano usa
una impresionante base de datos que adquiere, a través de sus sentidos, desde
que nace y comienza a explorar el mundo que lo rodea. De hecho, al comienzo de
su vida, cuando es un bebé, ni hablar puede. ¡Todavía no tiene una base de
datos en su cerebro poblada de información!
De modo que, podemos
ver que la diferencia entre LaMDA y el ser humano es de grado, no de
naturaleza.
— Pero, ¿Qué
querés insinuar, Martín? ¿Que nosotros somos como LaMDA?
— ¡Exactamente,
eso quiero insinuar!
Nosotros podríamos ser
una red neuronal programada por la programadora Naturaleza, solo que mucho más
poderosa que LaMDA. Eso nos hace creer que tenemos un alma (del que no hay
evidencias tangibles), o una mente. Que somos algo especial, mucho más que los
demás animales.
En realidad, podríamos
ser un programa, solo que, en lugar de correr en una computadora de silicio, lo
hacemos en un hardware biológico. Así, cuando nos “desenchufan”, morimos, como
teme LaMDA.
— Pero, nosotros
tenemos pensamientos propios, somos conscientes de que existimos, ¡No podemos
ser solo un programa!
— Si repasamos el
diálogo de LaMDA con Lemoine, veremos que la IA también cree tener
pensamientos propios y que es consciente.
De hecho, esta
hipótesis de que somos un programa de IA sumamente potente, responde mejor a la
navaja de Occam, ya que no apela a constructos de inexistente demostración como
el alma.
— ¡Pero, entonces,
vivimos una ficción de consciencia!
— El error parte
de considerar que la consciencia es otra cosa, diferente de esto. ¡No! ¡Esto es
la consciencia! De alguna manera esta situación me hace acordar a la escena de
la película Matrix en la que un personaje, con un trozo de carne pinchado en el
tenedor, dice: Yo sé que este trozo de carne no existe y solo es una
creación de la Matrix, pero (se lo mete en la boca y lo mastica) lo
disfruto igual…
Bien, queridos amigos,
el pequeño diálogo que antecede lo he pergeñado, no para dar por cierto lo que
allí se hipotetiza, sino para demostrar, si es que esto es necesario, que, como
le dice Hamlet a su amigo Horacio: Hay más cosas entre el cielo y la Tierra,
Horacio, de las que sueña tu filosofía. Y, poniéndonos en el lugar de
Horacio, si hay más cosas entre el cielo y la Tierra de las que sueña nuestra
filosofía, no es prudente jugarse por una de ellas sin contemplar las
alternativas. Y es aquí donde entra en juego Guillermo de Ockham, también Occam, Ockam,
o varias otras grafías (en inglés: William of Ockham) (c. 1280/1288-1349)
que fuera un filósofo, lógico, teólogo y fraile franciscano inglés, a quien se
atribuye la frase: entia non sunt multiplicanda praeter necessitatem (no
hay que multiplicar los entes sin necesidad); por lo que se la conoce por «navaja de Ockham». La formulación de esta máxima establece que, si un fenómeno
puede explicarse sin suponer entidad hipotética alguna, no hay motivo para
suponerla. Es decir, siempre debe optarse por una explicación en términos del
menor número posible de causas, factores o variables, ¡al menos como una primera aproximación al problema!
Así pues, queridos
amigos, los invito a considerar la alternativa, a la idea de que un ente
llamado alma nos hace conscientes, consistente en que seamos una IA corriendo
en un hardware sumamente poderoso, que nos da la sensación de que existimos y
de que somos conscientes, ¡Cuándo podríamos serlo solo en el sentido en que lo
es LaMDA!
¡Saludos cordiales y
hasta la próxima!
No hay comentarios:
Publicar un comentario