domingo, 14 de agosto de 2022

¿Somos conscientes? Addendum.

Al parecer, las notas que, bajo el título de ¿Somos conscientes?, publiqué el 20 y el 27 de junio pasados, provocaron una generalizada curiosidad entre todos ustedes respecto a si yo realmente creía en la hipótesis allí vertida acerca de cuál es el origen de la consciencia en el ser humano. Así me lo hicieron saber las muchas consultas que recibí al respecto.

Lo cierto es que, una hipótesis no es un teorema; entendiendo, por este último, una verdad demostrada. La hipótesis es el paso que antecede al teorema; es un enunciado que pretende serlo, pero aún no ha sido demostrado.

Y, si uno adhiere al método científico, como es mi caso, no reduce la verdad a solo “creer o no creer”, sino que pretende aceptar las verdades solo cuando han sido demostradas. Sin embargo, para llegar al teorema hay que partir de una posible explicación del hecho que a uno lo ocupa. Y esa es la hipótesis.

Desde luego que, para el planteo de la hipótesis, es de mucha utilidad la "navaja de Occam", puesto que lo lógico es empezar por lo más simple y solo escalar la complejidad si es necesario.

Así las cosas, digamos que lo enunciado en aquellas notas fue precisamente eso: Una posible explicación al fenómeno de la consciencia humana. Una hipótesis acerca de cómo surge la consciencia en nuestros cerebros, en nuestras redes neuronales.

Ahora bien, las mencionadas consultas de muchos de ustedes me llevan a ahondar sobre el tema aportando otras reflexiones sobre el mismo. Y, para comenzar, creo conveniente recordar cuál fue la hipótesis de marras. Dije en aquellas notas que:

La consciencia humana es en un todo similar a la que surge en las redes neuronales artificiales construidas por el hombre.

Y, el primer testigo que quiero llamar al estrado es Mizuki, ¿Remember Mizuki? En mi cuento del mismo nombre se entabla entre Mizuki y Martín san el siguiente diálogo acerca de las ECM, decía Mizuki:

 

- De modo que redes neuronales construidas a imagen y semejanza del cerebro, cuando son “desmontadas” paso a paso, “recuerdan” lo que primero aprendieron. Del mismo modo que un humano cercano a la muerte recuerda a seres queridos que ya no están como su madre, por ejemplo. Ahora bien, estimo que estarás de acuerdo conmigo, Martín san, en que las redes neuronales son sólo un artefacto electrónico, un robot, ¿Verdad?
- Pues,... si,... estoy de acuerdo.
- O sea que no está animado de ningún espíritu, o alma, o cosa que se le parezca, ¿Verdad?
- No, ciertamente no.
- Y entonces, Martín san, ¿Por qué estás dispuesto a aceptar que el humano es fundamentalmente distinto cuando su comportamiento es básicamente el mismo que el de una red neuronal artificial?

 

¡Y este es el punto! Si una red neuronal (similar a nuestro cerebro) se comporta de manera similar a nosotros mismos, ¿Por qué hemos de aceptar que ese comportamiento es de un origen fundamentalmente distinto al origen de nuestro propio comportamiento?

Y, más aún, resulta que ese comportamiento similar aparece en redes neuronales muy simples (comparadas con el cerebro humano). ¿Qué no esperar de futuras redes, mucho más complejas?

No dejo de ver que, la duda mayor que despierta esta hipótesis es la expresada por muchos de ustedes: Las redes neuronales artificiales creen tener consciencia, pero, en realidad, no la tienen. Es solo una cáscara de consciencia.

¿Y qué tal si nosotros también creemos tener consciencia, cuando, en realidad no la tenemos? ¿Qué tal si también vivimos una cáscara de consciencia? Desde luego que, una tremendamente poderosa red neuronal como es el cerebro, nos hace vivir esa ficción como si fuese una realidad aplastante.

¿Lo es realmente, estimados amigos?

 

Ahora bien, quisiera, antes de proseguir, detenerme en algunas consideraciones sobre el test de Turing. Recordemos, para los recién llegados, en qué consistía.

El inglés Alan Turing, uno de los padres de la computación, diseñó una prueba con el objeto de determinar la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de éste

Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un él y un grupo de interlocutores entre los que hay una máquina diseñada para generar respuestas similares a las de un humano. El evaluador sabría que uno de los participantes de la conversación es una máquina y los intervinientes serían separados unos de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla. En el caso de que el evaluador no pueda distinguir entre los humanos y la máquina acertadamente, la máquina habría pasado la prueba.

Turing propuso esta prueba en su ensayo “Computing Machinery and Intelligence” de 1950 mientras trabajaba en la Universidad de Mánchester. Inicia con las palabras: Propongo que se considere la siguiente pregunta, ¿Pueden pensar las máquinas?

Es interesante notar que, mientras se pensó que las máquinas nunca podrían pensar se tomó el test de Turing como muy bueno. Ahora, cuando han aparecido máquinas que pueden superarlo, se considera que no, no es tan decisivo ni importante.

¡Parece que el humano se niega a reconocer que no es algo maravilloso!

Ahora, me pregunto yo, si la conducta de un robot es indistinguible de la de un ser humano, si su desempeño es indistinguible del de un ser humano, si estamos construidos con el mismo modelo de red neuronal, ¿tiene sentido argumentar que no es consciente y nosotros sí? O, más bien, si ellos no son conscientes, ¿será que nosotros tampoco? O, si nosotros somos conscientes, ¿será que ellos también lo son?

………………………………….

Bien, a continuación, les dejo una serie de artículos sobre el tema, a favor y no tan a favor del mismo, para que puedan reflexionar sobre él. Y ya el primero nos da una pista de por qué somos inteligentes y por qué otros animales también los son (mal que le pese al finadito Descartes que opinaba que los animales no tienen mente).

¡Ah!, me olvidaba decirles, si al querer decir sus nombres… eeehhh, no, perdón,... digo que al final de esta nota hallarán dos links de videos donde les contarán acerca de Watson, la IA de IBM que, entre otros logros, ganó u$s 1.000.000 en el programa de preguntas y respuestas Jeopardy, de Estados Unidos. Y, como si esto fuera poco, los invito a buscar en Youtube el título Trailer Morgan y podrán ver la colilla de una película de terror, confeccionada totalmente por una IA.

Bien, ahora sí: ¡Hasta la próxima!

 

¿Por qué algunos animales

son más inteligentes que otros?

Descubre de dónde surge la capacidad de innovación y aprendizaje de los animales más inteligentes del planeta.

POR CRISTINA CRESPO GARAY
PUBLICADO 8 AGO 2022 12:05 GMT-3

Grajillas (Coloeus monedula) rompiendo una cáscara de nuez y arrojándola sobre el suelo; gorriones bloqueando los sensores de las puertas de supermercados para robar comida o herrerillos (Cyanistes caeruleus) abriendo los botes de leche que el repartidor deja a las puertas de las casas, estos animales (incluso con cerebros del tamaño de un fruto seco) logran comportamientos y aprendizajes que han sido objeto de estudio durante décadas.

Entre las aves, los cuervos se consideran los animales más inteligentes del mundo, superando incluso a algunos niños y primates. De hecho, diversos estudios han descubierto a lo largo de los últimos años que los cuervos elaboran y utilizan herramientas o resuelven acertijos, y otras especies, como los loros, cuentan con un vocabulario muy diverso.

La ciencia ya comprobó que estas aves aprovechan muy bien sus cavidades cerebrales y, de hecho, tienen más neuronas que muchos mamíferos. Pero, ¿qué es lo que hace entonces que algunos animales sean más inteligentes que otros?

Hace años se creía que la inteligencia estaba relacionada con el tamaño del cerebro. Esta teoría, llamada teoría de la encefalización, defiende que el tejido cerebral "extra" de un cerebro más grande permite dedicar más neuronas a tareas cognitivas, según explican los investigadores del Centro de Investigación Ecológica y Aplicaciones Forestales (CREAF) de España.

Sin embargo, hasta ahora no se disponía de una evidencia científica debido, en parte, a la dificultad de contabilizar la densidad neuronal en distintas especies animales.

¿Tienen los animales capacidad para innovar?

Un trabajo reciente publicado en la revista Nature Ecology and Evolution demuestra, por primera vez, que un mayor número de neuronas está relacionado con una de las principales formas de inteligencia: la capacidad de innovar. A su vez, este número de neuronas está relacionado con un mayor cerebro, tanto en relación con el cuerpo, como en términos absolutos.

“Nuestros resultados sugieren que en córvidos y loros la acumulación de neuronas en el palio (un área del cerebro que se corresponde con funciones superiores como el aprendizaje, distintos tipos de memoria, inteligencia, emociones, lenguaje, etc) es el resultado de alargar el tiempo que necesita el pollo para desarrollarse, una vez salido del huevo”, afirma Daniel Sol, científico del Consejo Superior de Investigaciones Científicas (CSIC) y del CREAF.

Por tanto, estos resultados demuestran que el número de neuronas en el palio son un predictor afinado de la capacidad cognitiva de una especie. Es decir, un mayor número de neuronas en esta zona cerebral implica una mayor capacidad de innovación. “Estos resultados son consistentes con la hipótesis de que la acumulación de neuronas en esta región tiene lugar en fases tardías del desarrollo”, explica Sol.

“A su vez, la acumulación de neuronas en el palio hace que el cerebro crezca tanto en términos absolutos como en términos relativos. Así pues, de entre todas las especies y linajes estudiados, los científicos destacan que son los córvidos y los loros las aves que tienen un cerebro mayor en relación al cuerpo y también más neuronas en el palio. Son también las que tienen un tiempo de maduración más largo”, explican.

En cambio, “en grupos como los faisanes y las palomas, la etapa de desarrollo postnatal es más corta, lo que no les permite acumular tantas neuronas en esa zona cerebral. Esto puede explicar por qué tienen un cerebro relativo pequeño y son poco innovadoras en su comportamiento”.

(Te puede interesar: ¿Cómo demuestran su inteligencia los pingüinos?)

Hacia un nuevo modelo evolutivo


Además, tanto córvidos como loros tienen una vida más larga. "Vivir más tiempo aumenta el valor de resolver problemas mediante la innovación porque el tiempo que dedicas a aprender un nuevo comportamiento se compensa si el comportamiento ofrece beneficios durante más tiempo". Hasta ahora, existía controversia sobre si era más importante el tamaño del cerebro en términos absolutos o en términos relativos.

"Los elefantes tienen un cerebro mayor que los humanos en términos absolutos", indica Louis Lefebvre, psicólogo de la McGill University (Montreal, Canadá) y co-líder del estudio; “¿quiere decir esto que son más inteligentes que los humanos? No necesariamente, si lo que más importa es el tamaño relativo del cerebro. El cerebro de los humanos contiene más neuronas en el palio, lo que hace que sea mayor en proporción a nuestro tamaño que el de los elefantes”.

Este nuevo hallazgo ha sido posible por el reciente desarrollo de un nuevo método para contar neuronas, el fraccionador isotrópico, que logra contar las neuronas de diversas especies de forma precisa, un descubrimiento de la neurobióloga Suzana Herculano-Houzel y su equipo. Los investigadores han partido de la estimación del número de neuronas en el telencéfalo palial, área cerebral de los pájaros donde tienen lugar funciones superiores (sensoriales, asociativas y pre-motoras) y que en los mamíferos correspondería al neocórtex.

Los investigadores han medido la densidad neuronal de 81 individuos de 46 especies, gracias a la participación de Pavel Němec, neurobiólogo de la Charles University de Praga, República Checa, que ha co-liderado el estudio y que es uno de los pocos expertos mundiales en la cuantificación de neuronas con la técnica del fraccionador isotrópico. Sumadas a las 65 especies medidas en estudios previos, el número total de especies analizadas llega hasta 111, lo que representa la mayor muestra de número de neuronas utilizada hasta ahora en un mismo estudio. 

Conoce a estos animales agricultores que “cultivan” antes que...

Los datos del número de neuronas han sido comparados con información de la capacidad de innovación basada en más de 4 000 observaciones, realizadas desde 1960 hasta 2020, que describen comportamientos innovadores de pájaros en sus hábitats naturales, tanto en la adopción de nuevos alimentos como en el uso de nuevas técnicas. 

Según Lefevbre, “nuestros resultados ayudan a unificar las medidas neuroanatómicas en múltiples niveles, reconciliando las opiniones contradictorias sobre el significado biológico de la expansión del cerebro”. "Los resultados también ponen de manifiesto el valor de la perspectiva de la historia vital para avanzar en nuestra comprensión de las bases evolutivas de las conexiones entre el cerebro y la cognición", concluye Sol.

¿Pueden los robots tener conciencia?


Barry C. Smith, director del Instituto de Filosofía
Para la BBC
13 septiembre 2011
Actualizado 18 septiembre 2011


Si se fabrica un robot que se comporte igual que nosotros en todo aspecto, incluyendo el pensamiento, ¿tiene conciencia o es sólo una máquina hábil?, se pregunta el profesor Barry C. Smith, director del Instituto de Filosofía.

Los seres humanos están hechos de carne y hueso, una masa envuelta en un intrincado arreglo de tejido nervioso. Pertenecen al mundo físico de la materia y la causalidad, y sin embargo tienen una propiedad notable: de tanto en tanto están conscientes.

La conciencia le proporciona a criaturas como nosotros una vida interior: un reino mental en el que pensamos y sentimos, percibimos imágenes y sonidos, sabores y olores, según los cuales hemos llegado a conocer el mundo que nos rodea.

¿Cómo puede la mera materia provocar experiencias conscientes?

El filósofo francés del siglo XVII René Descartes pensaba que no podía. Él suponía que además de nuestra configuración física, criaturas como nosotros teníamos una mente no material, o alma, en la que se daba el pensamiento.

Descartes negaba que los animales tuvieran mentes.

Para Descartes, la mente no material era excepcionalmente humana. Negaba que los animales tuvieran mentes. Cuando se quejaban, en su opinión no era más que aire escapándose de sus pulmones. Los animales eran sólo mecanismos.

Hoy en día, pocos niegan nuestra naturaleza animal o aceptan que todos los otros animales están desposeídos de consciencia. La idea de un alma inmaterial, además, hace difícil entender cómo el mundo mental puede tener algún efecto en el físico, por lo cual muchos filósofos contemporáneos rechazan la idea del dualismo mente-cuerpo.

¿Cómo algo que no existe en el mundo material puede mover nuestras extremidades y responder a estímulos físicos? Seguro que es el cerebro el responsable de controlar el cuerpo, así que debe ser el cerebro el germen de la consciencia y la toma de decisiones.

Y, sin embargo, muchos de los mismos pensadores concordarían con Descartes en lo que se refiere a la consciencia de las máquinas y de su posibilidad de tener experiencias como los seres humanos.

Criaturas de carbón

Descartes también decía que así lográramos crear una muñeca mecánica inteligente que replicara todos nuestros movimientos y reacciones, no sería capaz de pensar pues no tendría el poder de la palabra.

Pero ya no podemos depender de su criterio para determinar cuáles seres pueden pensar. Hoy en día, las computadoras usan la palabra y el lenguaje sintetizado mejora todo el tiempo.

Alan Turing

Turing se imaginó un test para probar si se podía confundir una máquina con un ser humano.

Fue el potencial de las computadoras de usar el lenguaje y responder apropiadamente a preguntas lo que llevó a Alan Turing, el matemático y descodificador de mensajes durante la guerra, a proponer un experimento para medir la inteligencia de las máquinas.

Turing se imaginó a una persona sentada en una habitación, comunicándose por vía de una pantalla de computador con otros dos en habitaciones distintas. La persona escribiría preguntas y recibiría respuestas, y si no era capaz de adivinar cuál de las dos era la máquina y cuál el ser humano, no tendría razón para no tratarlas igual.

Eso es lo que se conoce como la Prueba de Turing, y si la situación se organiza con cuidado, los programas de computador pueden pasarla.

La prueba original de Turing depende de no poder ver quién está enviando las respuestas a las preguntas, pero la robótica se ha desarrollado rápidamente en la última década y ahora vemos máquinas que se mueven y comportan como humanos.

¿Qué pasaría si ampliáramos el test e instaláramos un programa de computador en un robot con apariencia de ser humano? ¿Podrían el comportamiento adecuado y las respuestas apropiadas convencernos de que la máquina no sólo es inteligente sino también consciente?

En tal caso, habría que distinguir entre pensar que el robot tiene conciencia y que realmente la tenga.

El último misterio

Quienes estudian la consciencia de las máquinas están tratando de desarrollar sistemas autoorganizados que inicien acciones y aprendan de lo que los rodea. La esperanza es que, si logramos crear o reproducir la consciencia en una máquina, podremos aprender qué es lo que hace posible que exista.

Los investigadores están lejos de hacer de ese sueño realidad y un gran obstáculo se levanta en su camino... necesitan una respuesta a la siguiente pregunta: ¿podrá una máquina basada en silicio alguna vez producir consciencia, o son sólo las criaturas hechas de carbón con nuestra configuración material las que puede producir los resplandecientes momentos tecnicolor de la experiencia consciente?

La pregunta es si la consciencia es más cuestión de lo que hacemos o de lo que estamos hechos.

La consciencia posiblemente sea el último misterio que le quedará a la ciencia, pero hasta cierto punto ha sido destronada del rol central que antes ocupaba en el estudio de lo mental.

Gracias a la neurociencia y la neurobiología, cada vez entendemos mejor que mucho de lo que hacemos es el resultado de procesos y mecanismos inconscientes.

Y eso le añade un giro a la historia: si lográramos producir un robot que se comporte como uno de nosotros en todos los aspectos, eso podría llevar a comprobar no tanto que el robot tiene conciencia sino cuánto podemos hacer sin tenerla.



TECNOLOGÍA PILAR VARGAS

¿Pueden los robots ser más conscientes?

Un nuevo sistema de aprendizaje sensible al contexto logró que los robots adquieran mayor conciencia sobre sus compañeros de trabajo. Un reciente estudio mostró que estos eran capaces de comprender su entorno, medir distancias y reconocer el volumen corporal de las personas.

La inteligencia artificial sigue avanzando y en Suecia ya lograron que máquinas pudieran interactuar con sus pares humanos en el trabajo de manera más eficiente.

Este sistema de colaboración humano-robot puede identificar a cada humano con el que trabaja, así como el modelo de esqueleto de la persona, que es un resumen del volumen corporal, según dice el investigador del KTH Royal Institute of Technology, Hongyi Liu.

Según Liu, la capacidad de reconocer su entorno, le permite al robot tomar decisiones tomando en cuenta lo que sucede a su alrededor. Esta habilidad de reconocimiento de su entorno dota la máquina de un contexto del que debe ser consciente al interactuar.

La investigación publicada en Robotics and Computer-Integrated Manufacturing exhibió que un robot pudo moverse alrededor de un brazo que obstaculizó su trayecto repentinamente, prediciendo cuál sería el movimiento, teniendo en cuenta volumen, velocidad y distancia con el brazo del humano, es decir, el contexto.

Esta capacidad permite no sólo mayor eficiencia, sino que mayor seguridad para el desarrollo del trabajo, evitando una posible coalición y reconociendo la línea de montaje, comenta Liu.

Lo que hace posible que los robots tomen conciencia de su entorno es un sistema de aprendizaje automático llamado aprendizaje de transferencia. Es un tipo de inteligencia artificial que reutiliza el conocimiento desarrollado a través de la capacitación antes de adaptarse a un modelo operativo.

Liu compara el sistema de robot sensible al contexto con un automóvil autónomo que reconoce cuánto tiempo ha estado rojo un semáforo y anticipa moverse nuevamente. En lugar de frenar o reducir la marcha, comienza a ajustar su velocidad navegando hacia la intersección, evitando así un mayor desgaste de los frenos y la transmisión.

Los experimentos con el sistema demostraron que, con el contexto, un robot puede operar de manera más segura y eficiente sin ralentizar la producción, al ser más consciente de su entorno.

Revisa el artículo original Robots can be more aware of human co-workers, with system that provides context de Science Daily.



Crean el primer robot consciente de sí mismo

RedacciónT21

8 febrero, 2019

Investigadores estadounidenses han creado un robot consciente de sí mismo y capaz de simularse para adaptarse rápidamente a los cambios del entorno. Un primer paso para traducir la consciencia a algoritmos y mecanismos concretos.

Investigadores de la Universidad de Columbia en la Ciudad de Nueva York (Estados Unidos), han creado un robot capaz de aprender descubrirse a sí mismo desde cero. Esa autoconciencia la consigue sin ningún conocimiento previo de física, geometría o dinámica motora.

Al principio, el robot no sabe qué forma tiene. Pero, tras un breve período de «titubeo», y en aproximadamente un día de intensos cálculos, este robot es capaz de crear una auto-simulación, que puede usar internamente para contemplar y adaptarse a diferentes situaciones, realizar nuevas tareas y detectar y reparar daños en su propia fisonomía.

La simulación






Los seres humanos somos únicos en nuestra capacidad de imaginarnos a nosotros mismos, de imaginarnos en escenarios diferentes o futuros. También podemos aprender a través de las experiencias pasadas y reflexionando sobre lo que salió bien o mal.

La mayoría de los robots aún aprenden utilizando simuladores y modelos proporcionados por humanos, o mediante largas y laboriosas pruebas de ensayo y error. Los robots todavía no han aprendido a simularse como lo hacen los humanos.

«Si queremos que los robots se vuelvan independientes para adaptarse rápidamente a los escenarios imprevistos por sus creadores, es esencial que aprendan a simularse», señala Hod Lipson, profesor de ingeniería mecánica, en un comunicado.

Para el estudio, Lipson y el estudiante de doctorado Robert Kwiatkowski utilizaron un brazo robótico articulado. Inicialmente, el robot se movió al azar y realizó aproximadamente mil trayectorias. Luego, el robot utilizó el aprendizaje profundo, una técnica moderna de aprendizaje automático, para crear un modelo de sí mismo.

Los primeros “auto-modelos” eran bastante inexactos, y el robot no sabía qué era ni cómo estaban conectadas sus articulaciones. Pero después de menos de 35 horas de entrenamiento, el auto-modelo se volvió consecuente con el robot físico hasta unos cuatro centímetros.

El auto modelo realizó una tarea de “tomar y colocar” en un sistema de circuito cerrado que permitió al robot recalibrar su posición original a cada paso a lo largo de la trayectoria, basándose completamente en el simulador interno.

Con el sistema de control de bucle cerrado, el robot fue capaz de tomar objetos en lugares específicos en el suelo y depositarlos en un recipiente con un 100 por ciento de éxito.

Incluso en un sistema de bucle abierto, que implica realizar una tarea basada completamente en el modelo interno, sin ningún tipo de retroalimentación externa, el robot pudo completar la tarea de selección y colocación con una tasa de éxito del 44 por ciento. «Eso es como tratar de recoger un vaso de agua con los ojos cerrados, un proceso difícil incluso para los humanos», señala Kwiatkowski.

Para probar si el auto-modelo podía detectarse daño a sí mismo, los investigadores imprimieron en 3D una parte deformada para simular el daño y el robot pudo detectar el cambio y volver a entrenar su auto-modelo. El nuevo modelo propio permitió que el robot reanudara sus tareas con poca pérdida de rendimiento.

https://www.youtube.com/watch?v=iSYn9ienWF0

Rompiendo los límites

Lipson señala que la autoimagen es clave para permitir que los robots se alejen de los confinamientos de la llamada «Inteligencia Artificial estrecha«, que solo puede dirigirse a un objetivo, y conducirla hacia habilidades más generales. Sería un paso hacia la “Inteligencia Artificial fuerte”.

«Esto es quizás lo que hace un niño recién nacido en su cuna, ya que aprende lo que es», explica Lipson. “Suponemos que esta ventaja también puede haber sido el origen evolutivo de la autoconciencia en los humanos. Si bien la capacidad de nuestro robot para imaginarse a sí misma aún no es comparable a la de los humanos, creemos que esta habilidad está en el camino hacia la autoconsciencia de la máquina».

Lipson cree que la robótica y la inteligencia artificial pueden ofrecer una nueva ventana al viejo rompecabezas de la consciencia. «Los filósofos, los psicólogos y los científicos cognitivos han estado reflexionando sobre la autoconsciencia de la naturaleza durante milenios, pero han progresado relativamente poco», observa. «Todavía ocultamos nuestra falta de comprensión con términos subjetivos, pero los robots ahora nos obligan a traducir estas nociones vagas en algoritmos y mecanismos concretos».

Lipson y Kwiatkowski son conscientes de las implicaciones éticas. «La autoconsciencia conducirá a sistemas más resistentes y adaptativos, pero también implica cierta pérdida de control», advierten. «Es una tecnología poderosa, pero debe manejarse con cuidado».

Los investigadores ahora están explorando si los robots pueden modelar no solo sus propios cuerpos, sino también sus propias mentes. Es decir, si los robots pueden pensar en pensar.

Referencia

Task-agnostic self-modeling machines. R. Kwiatkowski and H. Lipson. Science Robotics, 30 January 2019. DOI: 10.1126/scirobotics.aau9354.


Acerca de Watson.

https://www.youtube.com/watch?v=g0S5yNR1q8I

https://www.youtube.com/watch?v=Fqd59j9x6Ag&t=284s

 


No hay comentarios:

Publicar un comentario

Del odio entre clanes

En 1945, el general Dwight D. Eisenhower, comandante supremo de los aliados en la Segunda Guerra Mundial, al encontrar a las víctimas de los...