domingo, 30 de octubre de 2022

De drogas, su consumo y consecuencias

 

Corría el año del Señor de 1977, estimados amigos, cuando los ojos pecadores de Nivi (como me conocen familiarmente) recorrían morosamente las páginas del diario Los Andes de Mendoza, Argentina. En ellas, de repente, un título reclamó mi vigorosa atención, rezaba de la siguiente guisa:…

Sin embargo, permítanme que, antes de ir al artículo y su título me concentre en otro tema, que nos irá llevando hacia donde quiero ir en esta nota.

  En 1960, Paul Adriaan Jan, Baron Janssen, un médico e investigador belga, fundador de Janssen Pharmaceutica, una empresa con más de 20.000 empleados, fabricó, por vez primera, una sustancia conocida como fentanilo.

El fentanilo es un narcótico sintético opioide utilizado en medicina por sus acciones analgésicas y anestésicas. Es alrededor de 100 veces más fuerte que la morfina y unas 50 veces más fuerte que la heroína. Algunos análogos del fentanilo como el carfentanilo son hasta ~10.000 veces más fuertes que la morfina.

Fácil es comprender, queridos amigos, que por ser más poderoso que drogas como la heroína o la morfina y, detalle fundamental, ¡más barato!, fue rápidamente incorporado a las mochilas de los adictos a dichas sustancias. Incluso, países como EE.UU. y Méjico, por nombrar algunos, sufren actualmente verdaderas epidemias de adicción al fentanilo.

Pero claro, ¡Nada es gratis en este Universo! Y los efectos negativos del fentanilo son verdaderamente impresionantes. Se lo ha llamado “la droga de los muertos vivos”, pues produce en el adicto somnolencia y fatiga que hacen que este se desplace como los zombis de la serie televisiva The Walking Dead. Y, desde luego, las sobredosis de fentanilo llevan a la muerte. El músico Prince, por ejemplo, murió por sobredosis de fentanilo.

El siguiente video que les entrego muestra los efectos del fentanilo. Les recomiendo ver, directamente, desde el minuto 4:40 hasta el 5:35, que es donde se puede observar a los humanos convertidos en zombis.

https://www.youtube.com/watch?v=aI3q7V8bhJY


Bien, el fentanilo ha sido la parada número uno de esta nota. ¡Vamos a la número dos!

Esta se trata de otra droga, tan o más poderosa que el fentanilo, que también transforma a los humanos en zombis. Me refiero al populismo.

El populismo, estimados amigos, no es ni más ni menos que otra droga que produce efectos analgésicos y anestésicos, necesarios para que, quien la administra, no deba preocuparse de quien la consume, pues este se ha transformado en un zombi.

Los primeros imperios de la historia no debieron preocuparse por el populismo puesto que el rey o emperador tenía el mando absoluto y la plebe no tenía derechos. Sin embargo, con el correr de los siglos la dicha plebe comenzó a adquirirlos y se transformó en una molestia para los gobernantes que ya no podían hacer lo que desearan sin dar explicaciones. Es así que, en el Imperio Romano, vemos florecer el más rancio populismo, ejemplificado por el famoso dictum panen et circenses, como hemos tenido oportunidad de discutir en estas páginas.

Al tener a la plebe en estado de zombi, se la saca del cuidado de la res publica que queda, entonces, al arbitrio de los gobernantes. Para ello qué se necesita. Dos cosas fundamentales:

1.- Tener al pueblo dependiendo de la jerarquía (el panem) y absorbido por los efectos analgésicos de la droga (los circenses), y

2.- Reducir la educación de la gente a solo el relato elaborado por la jerarquía. No se debe educar, porque si se educa a la gente esta se vuelve contestataria y no es eso lo que desea el populista. Es por ello que los gobiernos populistas reducen fondos para la educación.

Y como para muestra basta un botón, aportaré dos botones. En el primero podrán ver a un muchacho que ni trabaja, ni estudia y solo aspira a un subsidio del gobierno (panem). En el segundo, que ya he mostrado muchas veces por ser muy ejemplificador, verán a una jujeña que dice que no le importa que roben los políticos, mientras ella perciba su parte. Su último concepto es terrorífico y pinta por si solo el veneno del populismo. Dice la jujeña: Yo sé que robaban, pero yo tenía mi parte, ¡¡¡AHORA TENGO QUE TRABAJAR PARA TENER!!!


 

 


Bien, con esto llegamos a la tercera estación de este via crucis. En ella analizaremos lo siguiente: Como ya hemos charlado en este foro, ¿Qué destino le espera a un muchacho como el del primer video en un mundo donde la robótica y la inteligencia artificial están reemplazando humanos cada vez más preparados? Fácil es pronosticar que no tendrá cabida en él. Sin embargo, a este muchacho no le importa, mientras él siga siendo mantenido por el Estado, que el trabajo lo hagan las máquinas.

Y aquí es, queridos amigos, donde volvemos a encontrarnos con el artículo que Nivi leía en 1977. El mismo había sido publicado originalmente en el diario La Nueva Provincia de Bahía Blanca, Argentina. Estaba firmado por Jaime Nelson y su título era El Primer Mundo Se Aleja.

El articulista argumentaba a lo largo del artículo cómo la brecha entre el primer mundo y el tercero era cada vez más pronunciada para llegar al amenazador final siguiente: Que la distancia con el primer mundo se agrande cada vez más es sumamente peligroso porque, puede llegar el caso de que no nos necesiten ¡¡¡NI SIQUIERA PARA EXPOLIARNOS!!!

¡Tremenda conclusión! ¡Estar absolutamente de más! Y, para vislumbrar lo peligroso que puede ser tal condición, recordemos que, y esto es solo un ejemplo de los muchos disponibles, en la Alemania nazi, los camiones de la Gestapo recorrían por las noches las calles de Berlín recolectando indigentes y mendicantes que nunca más se volvían a ver. Se consideraba que no aportaban nada a la sociedad y afeaban el paisaje.

¿No le podrá pasar lo mismo a nuestro muchacho del primer video?

¿Qué tal si aparece un Hitler que considera que de los 8.000.000.000 millones de humanos que se estima que seremos a partir del 15/11/2022, 3.000.000.000 están de más? ¡Sobran! Fácil es concluir que habrá para ellos una “solución final”.

Este es el difícil mundo que enfrentan nuestros hijos y nietos, estimados amigos. La única garantía de perdurabilidad es prepararse concienzudamente en cualquier área del saber humano y ser útil a la sociedad…

¡Nuestro muchacho del primer video, tiene un negro porvenir!


Bien, antes de finalizar, quiero decirles que tienen disponible en el enlace que les copio a continuación, el nuevo boletín de novedades en ciencia y tecnología con interesantes artículos sobre la lucha contra el cáncer, la diabetes tipo 2, egiptología, etc. etc.

https://www.dropbox.com/s/xa0ravtykkclmm1/CyT%20-%20154.docx?dl=0

¡Disfrútenlo y hasta la próxima!


 

 

domingo, 23 de octubre de 2022

«La globalización es el mayor error de la humanidad»

 

Creo que ustedes ya conocen, estimados amigos, mi inclinación por escuchar otras opiniones que puedan enriquecer los temas que tratamos en este foro. Y ha llamado mi atención los conceptos vertidos por el explorador Eudald Carbonell sobre la evolución y el colapso de la especie humana.

¿Qué quién es Eudald Carbonell?

Bueno, Eudald Carbonell (Ribes de Freser, 1953) es uno de los arqueólogos de más prestigio y proyección internacional. Codirector del Proyecto Atapuerca, que le hizo acreedor al prestigioso Premio Príncipe de Asturias en 1997, ocupa desde 1999 la cátedra de Prehistoria de la Universitat Rovira i Virgili y es investigador del Institut Català de Paleoecologia Humana i Evolució Social (IPHES).

 La conversación que sigue la mantuvo Carbonell con la revista Teams y responde, con su típico sombrero marrón, sin rehuir ningún tema.

Se podrá estar de acuerdo o no con sus afirmaciones, pero no se puede negar que son interesantes balizas para reflexionar.

Los dejo pues con Eudald Carbonell.

Eudald Carbonell

¿Cuándo se dio cuenta de que quería ser explorador y arqueólogo?

La equivocación más grande de mi vida comenzó antes de cumplir cinco años. Ya entonces recogía fósiles en los alrededores de la casa de mi abuelo, en Santa Maria de Besora, y con cuatro años y medio monté mi primera colección de fósiles.

¿La equivocación más grande de su vida? ¿Se arrepiente?

Sí, toda mi vida ha sido un error, pero como no soy creyente no puedo arrepentirme. Ha sido una vida de mucho sufrimiento y responsabilidad. Hay un 90% de marrones y un 10% de disfrute.

También habrá vivido grandes momentos. ¿Qué se siente cuando se es consciente de que se ha hecho un gran descubrimiento?

Hay un sentimiento científico de haber hallado algo importante y la sensación personal de saber que estás ante algo excepcional. Me siento orgulloso por haber contribuido a socializar el conocimiento.

¿Cuál es el hallazgo que le ha hecho más feliz?

El más importante puede ser el de este mismo año, un fósil de la mandíbula del humano más antiguo que se ha hallado en Europa. Es de hace un millón y medio de años y tiene una cara muy parecida a la mía.

Y después de tantos descubrimientos importantes, de tantos premios y una vida tan dura, ¿qué le empuja a seguir?

A pesar de todo uno mantiene la ilusión y se ha capacitado para hacerlo bien y ayudar a implementar la ciencia y el conocimiento en el país. Y luego está el retorno en modo de satisfacción que uno recibe por la cantidad de gente que ha formado y por cómo ellos me han formado a mí.

¿De qué sirve conocer a nuestros antepasados?

Es la gran pregunta. Te sirve para saber qué es un ser humano, para estudiarnos a nosotros mismos, para conocer el pasado y proyectar el futuro. Saber qué pasó nos explica el proceso por el cual nosotros estamos aquí. En definitiva, investigo para saber qué soy como ser humano.

¿Y en qué consiste ser humano?

La respuesta a esto aún no está acabada, aún no somos humanos. Los humanos son unos organismos sociales y tecnológicos. Ser humano implica sociabilidad, cooperativismo, empatía con todos los seres del planeta.

Pues no vamos bien. Seguimos resolviendo los problemas a porrazos, con guerras...

Hay cosas en las que no hemos evolucionado ni involucionado. Somos primates en estado de humanización, nuestro cerebro no se ha abierto. Tratar de solucionar los problemas con una guerra es un mecanismo animal.

Guerras, pandemias, cambio climático... ¿Vamos directos hacia el colapso?

Sí, ya estamos colapsando, hace tiempo. Si miramos la guerra en Ucrania y sus consecuencias, vemos que la no salida del grano y del cereal puede provocar la muerte de 500 millones de personas en África. ¡500 millones de personas! Si esto no es el colapso, que venga dios y lo vea.

Pasamos por una pandemia mundial muy dura y todos esperábamos que saliéramos mejores de aquella experiencia. ¿Ha sido así?

En absoluto. La pandemia nos ha hecho mucho peores como especie, ha sido el último aviso de que la especie va hacia el colapso. Tras una primera etapa en la que vimos cierta solidaridad, nos hemos vuelto más egoístas. Aquí vimos cómo cada autonomía tomaba medidas sin entender que se trataba de un problema universal, y que merecía una respuesta global y ordenada.

¿Qué es lo que falla?

La humanidad no está bien socializada, algo no funciona. Somos primates poco evolucionados, jerárquicos y gobernados por líderes. Esto no está bien.

¿Los liderazgos son malos?

Si hubiéramos evolucionado no harían falta los líderes. Los liderazgos son lo peor de la humanidad, sobre todo si, como pasa ahora, son incompetentes. Debemos ser capaces de crear autoconocimiento y autoorganización, romper con las jerarquías y conseguir unos sistemas de cooperación y de organización más horizontales.

¿Los avances tecnológicos pueden ser una solución? Ya se habla de insertar chips en personas. ¿Nos cambiará esto como especie?

Yo estoy encantado con eso, sería genial que me implantaran un chip y tuviera toda la sabiduría y la memoria en mi cerebro. Es un salto bestial. Al final del siglo XXI habrá cuatro o cinco especies humanas, algunas con modificaciones tecnológicas y genéticas, con prótesis, y otros conservacionistas que no se habrán dejado modificar. Habrá una gran diversidad conviviendo.

¿Y tanta diversidad es positiva?

La diversidad es fantástica. Yo siempre digo que me gustaría vivir en el bar de La Guerra de las Galaxias. La diversidad es fundamental, hay que mantenerla e incrementarla. Si la eliminamos, uniformamos nuestra especie. Eso es lo que está pasando con la globalización, que es el peor error de la especie humana.

«Ya con cuatro años recogía fósiles en los alrededores de la casa de mi abuelo y monté mi primera colección de fósiles»

¿La globalización es nuestro mayor error?

Sí, desde el punto de vista evolutivo, la globalización es el error más grande de la historia humana porque tiende a uniformizar el sistema en lugar de mantener la diversidad. En caso de crisis, como no hay diversidad, no hay alternativas, lo que lleva al colapso del sistema. Este es el punto en el que estamos ahora.

Pero también tiene aspectos positivos. Ha contribuido a la extensión del conocimiento.

La extensión del conocimiento se puede hacer de otras maneras. Estamos controlados por el pensamiento impuesto por una serie de gente que se ve multiplicado por los intereses económicos. La diversidad no se admite, todo lo que es distinto choca y genera conflicto. Esto es una prueba de que la humanización está todavía por hacer.

Usted ha sido siempre un hombre comprometido ideológicamente. ¿No le ha tentado el terreno de la política?

Sí, y de hecho me involucré desde joven, siempre en la izquierda, desde una perspectiva antifranquista. Fui a un colegio del Opus donde no nos dejaban hablar en catalán, y ya luché contra ello. Soy comunista y tuve responsabilidades en el PSUC. Estuve a punto de ser diputado; me faltaron 500 votos. He intentado contribuir a una mejora de la sociedad desde la ciencia con mucha intensidad.

¿Y cómo ve el conflicto que se vive en Catalunya?

En un tiempo fui federalista, pero ahora soy soberanista, creo que Catalunya merece tener su propio Estado. Pero soy a la vez antinacionalista, porque entiendo que los nacionalismos no son buenos. Creo en la diversidad, en que podemos vivir todos juntos siendo diferentes, pero este principio está desapareciendo y siendo sustituido por el pensamiento único. Eso es un error.

«La diversidad es fantástica. Por eso digo siempre que a mí me hubiera gustado vivir en el bar de ‘La Guerra de la Galaxias’»

Usted ha participado en exploraciones y excavaciones por todo el mundo: Europa, África, América... ¿Cómo se compagina todo este tiempo fuera de casa con la familia?

Yo tengo 69 años y mi hijo, 12. Adivine por qué. Lo he pospuesto todo por la profesión. Me casé con una disciplina que me absorbió y no tuve tiempo de pensar en la familia. Ahora bien, si usted me pregunta qué es lo más importante para mí, le diré, sin dudarlo, que mi hijo.

Bueno, ahora está a punto de jubilarse.

Sí, ya es hora, los equipos necesitan renovarse.

¿Y a qué se va a dedicar, qué planes tiene?

A vivir. Estoy contento porque podré trabajar 24 horas pero ya sin responsabilidad. Y es que la responsabilidad es lo más duro de la vida, por eso es tan importante tenerla. Me dedicaré a escribir, a pensar, a desarrollar una teoría social sobre la evolución humana. Cuando eres mayor el pensamiento es más importante que el conocimiento.

O sea, que continuará ligado a la arqueología. ¿Qué le interesa fuera de esta disciplina?

Fuera de la arqueología me interesa el ser humano, la sociedad y el medio natural, el ser humano en su entorno. Tengo otras aficiones, me gustan la micología y la gastronomía, y tengo la suerte de ser amigo de grandes cocineros. También leer y estar con mi familia, que ya hemos comentado que me han visto poco.

«Si volviera a nacer no me dedicaría a la arqueología ni borracho de vino. Y si mi hijo tiene esa idea, intentaré quitársela de la cabeza »

¿Qué elegiría ser si volviera a vivir con todo lo que sabe? ¿Repetiría como arqueólogo?

Si ahora volviera a nacer no me dedicaría a la arqueología ni borracho de vino. Es más, haré lo que sea por quitarle la idea a mi hijo, si es que algún día la tiene.

¿Cómo ve el futuro? ¿Tiene fe en la humanidad?

La verdad es que no veo que vayamos hacia un futuro más feliz, en parte porque no avanzamos hacia una mayor aceptación de la diversidad. Me temo que si no desarrollamos una conciencia más colectiva, de cooperación, colapsaremos como especie.

«Los liderazgos son lo peor. Debemos romper con las jerarquías y conseguir unos sistemas de organización más horizontales»

Para terminar, una curiosidad. Su imagen va irremisiblemente unida a la del salacot, ese sombrero típico de explorador. ¿Cuándo comenzó a ponérselo y por qué?

Je je je. Sí, bueno, un día pensé que después de llevar veinte años ejerciendo como arqueólogo ya tenía bastante cara de arqueólogo como para llevar un salacot. Además, si uno es calvo y estás en una excavación en África, o te pones el salacot o te mueres. También hay otras razones, como el hecho de que era el casco utilizado por los vietnamitas que lucharon contra el imperialismo de Francia y Estados Unidos. Y como homenaje al profesor Bosch Gimpera, también un usuario habitual de esta prenda.

Bien, hasta aquí Carbonell.

A continuación, les dejo dos links a páginas donde abunda sobre los temas tratados aquí:

Eudald Carbonell, arqueólogo: «La inteligencia, bien utilizada, crea una conciencia de especie»

Eudald Carbonell: «Debemos detener la globalización de la especie»

Bien, antes de finalizar, les recuerdo que tienen disponible, como lo tendrán todos los fines de mes, el boletín de novedades en ciencia y en tecnología que edito con fines de divulgación.

Simplemente hagan click en el siguiente vínculo y podrán bajarlo a sus computadoras para leerlo.

 https://www.dropbox.com/scl/fi/j45ame6t63zqjcprl9awn/CyT-153.docx?dl=0&rlkey=4nwgs4n39az79r8mhg81jw00e

 ¡Hasta la próxima!


domingo, 16 de octubre de 2022

Profetas del Moderno Testamento

 Soy un convencido, estimados amigos, de que si algo salvará al hombre de la autodestrucción no será la moral, pues carece de ella, sino la ciencia y su derivado, la técnica.

De hecho, he rebautizado al humano de homo sapiens (hombre sabio) a homo predator (hombre depredador), ya que lo que hemos demostrado cabalmente es que somos el animal más depredador del planeta. Inclusive, y a pesar de llamarnos racionales, solemos adoptar actitudes abiertamente irracionales, como, por ejemplo, contaminar el planeta con todo tipo de sustancias químicas perjudiciales para nuestra salud, solo por intereses económicos. De modo que, de sapiens tenemos muy poco.

Un ejemplo de que no somos sapiens lo tenemos en el calentamiento global que puede llegar a un punto en que se retroalimente y se dispare a temperaturas de 400ºC o 500ºC, como ocurre en el planeta Venus, resultando inadecuado para la vida. Sin embargo, seguimos usando combustibles fósiles que generan el CO2, que es un gas de efecto invernadero, es decir, que contribuye al calentamiento global sin atender al no debo usar combustibles fósiles, que sería lo correcto. La Moral no nos interesa, nos interesan mucho más los intereses económicos. Ergo, la Moral no nos va a salvar.

¡Pero, la Ciencia si puede hacerlo! Veamos la siguiente noticia: Científicos israelíes revelaron un arma potencialmente implacable en la lucha contra la contaminación del aire, la deforestación y el cambio climático: Bacterias diseñadas para comerse el peligroso dióxido de carbono (CO2).

El 27 de noviembre, el laboratorio de investigación de plantas y ciencias ambientales del profesor Ron Milo en el Instituto Weizmann de Ciencias presentó un informe al respecto en la prestigiosa publicación científica Cell.

El equipo de Milo pasó casi diez años usando ingeniería genética para crear una bacteria Escherichia Coli que come CO2.

Es realmente lamentable que la Ciencia reemplace la Moral, pero así es como se maneja el homo predator.

Esto no quiere decir que no haya habido profetas del Moderno Testamento, como gusto llamar, que no nos hayan advertido de los peligros de nuestras actitudes irracionales. Uno de ellos fue, sin dudas, Rachel Carson.

 Rachel publicó el libro "Primavera silenciosa" en 1962 para advertirnos de los serios peligros de la contaminación. Escribió su obra y la defendió de los ataques de la industria de los pesticidas mientras batallaba un cáncer que le costó la vida en 1964 a los 56 años.

 Es de ella de quien nos vamos a ocupar en esta nota, basándonos en un artículo de mdzol del 13 de octubre de 2022.


"El ser humano es parte de la naturaleza, y su guerra contra la naturaleza es inevitablemente una guerra contra sí mismo".

La cita es de Rachel Carson, la bióloga y conservacionista estadounidense que causó conmoción en su país al publicar en 1962 su célebre libro "Primavera Silenciosa". La obra comienza con una invitación: imaginar un pueblo en el que desaparecieron las aves, víctimas del uso excesivo de compuestos químicos.

Carson, como ella misma aclaró, no estaba en contra de la aplicación selectiva de pesticidas e insecticidas, pero sí de su uso indiscriminado, común en esa época marcada por una fe indiscutida en el poder de la ciencia.

La obra tuvo tal impacto que fue uno de los catalizadores del movimiento ambiental en Estados Unidos. Y es que Carson no solo escribía con precisión científica. También era conocida por comunicar con belleza poética al público lo que llamaba el "intrincado tejido de la vida", en el que todo está interconectado y del que todos somos parte.

60 años después de la publicación de "Primavera Silenciosa", ¿cuán preocupante es la actual proliferación de compuestos químicos? ¿Y cuál sería hoy el mensaje de un libro como el de Carson?

BBC Mundo habló con Joan Grimalt, profesor de química ambiental del Consejo Superior de Investigaciones Científicas de España y miembro del Panel Intergubernamental de la Contaminación Química, IPCP por sus siglas en inglés.

Rachel Carson alertó sobre "la contaminación de aire, tierra y mar con materiales peligrosos y hasta letales". ¿Es este un mensaje especialmente relevante hoy?

Sí, por supuesto. Es verdad que ciertos vertidos en ciertos sitios ya no se permiten. Pero en líneas generales el uso de compuestos químicos ha aumentado y el vertido en el medio ambiente de dichos compuestos también ha aumentado.

Ahora habrá unos 350.000 compuestos fabricados por la industria. En los tiempos de Carson yo diría que no pasarían de 30.000.

Joan Grimalt integra el panel intergubernamental de la contaminación química, un grupo de científicos que pide un organismo internacional de vigilancia de los compuestos químicos.

En su libro, Carson habló especialmente de un compuesto: el DDT…

El DDT era uno importante, pero una cosa es que se hubieran fabricado muchísimos compuestos y otra es el uso generalizado de los mismos, que es lo que genera más problemas.

El DDT ya era conocido desde finales del siglo XIX. Pero en los años 40 hubo un médico, Paul Müller, que propuso utilizar el DDT para eliminar los mosquitos del género Anopheles que transmiten la malaria.

Y eso dio lugar a que se esparciera el DDT por todo el mundo. Hay que decir que le dieron a Paul Müller el Premio Nobel de Medicina. Porque sí que es verdad que este compuesto eliminó el mosquito Anopheles prácticamente en todas partes menos en las zonas tropicales y la incidencia de malaria disminuyó enormemente.

Y hay que decir también que desde el año 2005 la Organización Mundial de la Salud recomienda el uso del DDT para luchar contra el mosquito Anopheles en los sitios donde todavía la malaria es endémica.

O sea que a veces ocurre que una cosa no es blanca o negra, sino que depende del uso que se le da.

Una niña es rociada con DDT en Alemania en 1945 como parte de un programa para eliminar piojos, uno de los insectos que puede transmitir tifus.

¿Qué impactos negativos tenía el DDT?

Concretamente un primer efecto era que en los pájaros expuestos a DDT las cáscaras de los huevos salían mucho más finas y entonces durante la incubación se perdían muchas puestas porque los huevos no resistían el peso de los adultos que los incubaban. Eso dio lugar a la desaparición de muchos pájaros.

El DDT estuvo a punto de extinguir el águila calva americana, por ejemplo, el águila del símbolo de Estados Unidos y muchas otras especies.

El DDT estuvo a punto de extinguir el águila calva.

Además, se vio que en los humanos también causaba problemas. Hay imágenes en donde se ve soldados de Estados Unidos en calzoncillos a los que les están rociando con DDT (para matar pulgas, ladillas, piojos) porque se pensaba que no los afectaba, no sabemos estos soldados como están ahora. El DDT es neurotóxico y dentro de las células de los organismos, incluidos los humanos, las células que se reproducen o se reparan peor son las células nerviosas, con lo cual el daño hecho al sistema neurológico es más permanente.

¿Podrías darnos algún ejemplo de compuestos que se utilizan hoy en día y te preocupan especialmente? Se habla mucho de los forever chemicals o compuestos "eternos"…

Al hablar de compuestos o contaminantes químicos habría que diferenciar los que tienen propiedades de estabilidad química importante. Estos serían los que llaman forever chemicals, que son los compuestos persistentes.

La persistencia es debida a dos factores. Uno, que químicamente son moléculas muy estables. En el medio ambiente no hay muchas reacciones que los puedan degradar y la actividad de los organismos, sean bacterias o sean organismos superiores, los degrada muy poco.

La otra propiedad que suelen tener estos compuestos es que son hidrófobos, esto quiere decir que se disuelven más en la materia orgánica que en el agua. Entonces tienden a acumularse en los organismos vivos, a esto se le llama la bioacumulación. Cada vez que el organismo bebe o come algo que los tiene los acumula y no los excreta, porque nuestro sistema de excreción más normal es la orina y no son solubles en orina.

Además a medida que vamos subiendo por la cadena trófica, cada vez los organismos superiores los acumulan más porque comen cosas que ya tenían estos compuestos. Es lo que se llama biomagnificación. Los mamíferos marinos, por ejemplo, las focas, ballenas, acumulan más que los peces. Y los peces que son predadores de otros peces acumulan más que los peces que comen algas y zooplancton.


¿Puedes darnos algún ejemplo de estos compuestos persistentes?

Está el DDT. Todos llevamos DDT y sus metabolitos en sangre.

Pero a mí un compuesto que me preocupa mucho es el mercurio. Hay ciertos carbones que tienen un nivel de mercurio y cuando se han quemado cantidades enormes de carbón esto ha dado lugar a la emisión de mercurio a la atmósfera. De ahí ha pasado al agua y también se ha ido acumulando en los organismos.

Otra fuente de mercurio es el hecho de que en reservas tropicales, tanto de América como de África, hay gente que se dedica a buscar oro, y es gente muy pobre que lo hace con técnicas muy primitivas. Una de ellas es amalgamar el oro con el mercurio.

¿Puedes recordarnos cuán tóxico es el mercurio?

Es neurotóxico en estas concentraciones que estamos hablando, pues afecta todo, el hígado, los riñones. También da lugar a deformidades en los niños y niñas cuando las madres que dan a luz han estado expuestas.

En la bahía de Minamata en Japón esto quedó perfectamente documentado desgraciadamente, porque había una industria que tiró derivados mercuriales al río, y esos derivados pasaron a la cadena trófica y a los peces que comieron los habitantes locales y fue un desastre.


¿Qué otras sustancias te preocupan? Se habla mucho de los microplásticos que en estudios recientes se han detectado hasta en la placenta humana.

Los microplásticos también son importantes, todavía estamos para ver qué efectos hacen. Pero ojo, que el plástico es un invento de la humanidad que ha demostrado ser muy útil.

El plástico es inerte y a priori no hace ningún efecto negativo. Si lo hiciera, estaríamos todos hechos polvo, porque envolvemos los alimentos con bolsas de plástico y nos meten en las venas medicamentos con tubos de plástico y no pasa nada.

Eso no quita que más allá de un uso correcto del plástico, el hecho de que se tiren bolsas de plástico al medio ambiente, que no se depuren bien las aguas y que, por tanto, en el mar se viertan un montón de residuos de plástico, no es bueno.

Hay que investigar cuáles son los efectos de los microplásticos en la salud. Pero tampoco hace falta esperar a investigar mucho para tratar adecuadamente los residuos urbanos y las aguas urbanas, entonces quitaremos ya mucho plástico en el medio ambiente. En cambio, con el mercurio, cuando ya lo has tirado eso no tiene remedio.


Cuando conversábamos antes de la entrevista me dijiste que "estamos dentro de un experimento químico global". ¿Por qué?

Digo esto porque estamos tirando un montón de compuestos al medio ambiente y de esos algunos no nos vuelven pero la mayoría sí y nos los metemos dentro del cuerpo.

O sea, pensar que nosotros podemos tener una situación de salud perfecta rodeados de unas aguas contaminadas, de un aire contaminado y de unos suelos o de unos alimentos contaminados es una tontería.

¿Y hay posibles interacciones de esos compuestos entre sí que aún se desconocen?

Estamos hablando de 350.000 compuestos, hay muchas cosas por ir explicando.

Los compuestos persistentes una vez que uno los ingiere, como decía, se quedan dentro del cuerpo y van haciendo su efecto. Y en el caso de los que no son persistentes y el organismo elimina fundamentalmente en la orina, si una vez que los eliminamos volvemos a comer algo que los tiene siempre estamos expuestos.


¿Podrías darnos un ejemplo de esos compuestos no persistentes pero a los que podemos estar expuestos en forma permanente?

Por ejemplo, los pesticidas que se usan en agricultura en pequeñas dosis y que nos los volvemos a comer. O los bisfenoles que son unos aditivos del plástico. Hay muchos tipos de plástico que llevan muchos aditivos para modificar las propiedades del polímero o darle un colorado. Y entonces si se ingieren los microplásticos van todos los compuestos dentro.

Si uno mira los residuos de plástico en una zona costera que no se ha limpiado hay plásticos de todos los colores y ya de entrada esto nos está diciendo que son plásticos diferentes con propiedades diferentes.


 Vertido de residuos urbanos no tratados en un río.

¿Y quién regula todos estos 350.000 compuestos? ¿Hay algún organismo internacional?

Internacional no hay nada. Por esto nosotros desde el mundo científico, los miembros del Panel Intergubernamental de Contaminación Química, publicamos una carta en la revista Science pidiendo que se haga un panel internacional de vigilancia y asesoramiento sobre los compuestos químicos y los residuos para disminuir la exposición a estos compuestos.

¿La regulación de los miles de compuestos corresponde entonces fundamentalmente a cada país?

A nivel europeo hay diferentes normativas, por ejemplo REACH, pero eso está solo en Europa. En Estados Unidos tenemos la Agencia de Protección Ambiental, la EPA, que también es un organismo de referencia en cuanto a toda esta temática. Pero en muchos otros países no se hace nada, no hay nada.

Es más, otra cosa que yo encuentro personalmente bastante vergonzosa es que muchos países desarrollados envíen residuos a países subdesarrollados. Ya se puede imaginar que ahí lo que pasa es que esos residuos se vierten al medio ambiente o se tratan de una manera totalmente inadecuada.

Pero además, una parte de estos residuos y de los compuestos que llevan volverán al medio ambiente, se distribuirán por todo el planeta y por tanto, es también en interés de todos que este tipo de cosas no pasen.


Hay productos prohibidos en algunos países de Europa, pero que se venden en América Latina, como los pesticidas llamados neonicotinoides...

Lo que se ha hecho mucho es imitar las plantas, que como no se mueven, hacen una guerra química contra los insectos.

El tabaco hacía nicotina no para que la fumen los humanos, sino para matar los insectos, para defenderse. Se tomó la nicotina y se modificaron sus moléculas para hacer derivados de la nicotina todavía más fuertes para eliminar los insectos. Con los neonicotinoides hay la duda de si están matando, por ejemplo, a las abejas.


 El uso de neonicotinoides sigue generando polémica. Manifestantes en Francia piden que se mantenga la prohibición del uso de estos pesticidas.

¿Con esta enorme cantidad de compuestos en el medio ambiente, qué podemos hacer los consumidores?

A nivel de consumidores ciertamente que podemos hacer cosas. Una de ellas sería intentar disminuir al máximo el uso de plásticos, por ejemplo, ir con una cesta al mercado o envolver los productos en papel.

Los consumidores también pueden reciclar al máximo, esto facilita la gestión de los residuos de una manera menos contaminante.

¿Y a nivel de tratar de proteger la salud?

Aquí ya es más difícil de decir. Evidentemente están los productos ecológicos o productos orgánicos como se les llama en la nomenclatura inglesa, vegetales que se han cultivado sin pesticidas. Esto también es positivo, pero yo, sinceramente, todavía creo que hay que estudiar más esto.

¿Por qué?

Para ver si realmente hay un beneficio a nivel del consumidor. Si el vecino está utilizando pesticidas, yo no sé hasta qué punto mis productos se contaminan o no. Que quede claro que es positivo, no quiero decir que no sea bueno, pero habría que estudiarlo más.


Volviendo al libro de Rachel Carson. Ella advertía del riesgo a las aves y otras especies. Pero ahora tenemos la crisis climática y de biodiversidad, con un millón de especies en peligro de extinción según la ONU. ¿Cuál sería el mensaje de un libro como Primavera Silenciosa hoy en día?

"Primavera Silenciosa" en parte tuvo éxito porque se cambiaron los pesticidas que podían afectar más a los pájaros. El DDT se prohibió en muchísimos países, y en los que se usa para luchar contra el mosquito Anopheles es parar proteger a las personas, pero no se puede utilizar en agricultura.

Ahora hablamos de otras cosas preocupantes, de una disminución grande de insectos en muchos sitios. Y muchos de esos insectos son polinizadores, hacen falta para las cosechas, para que las plantas se reproduzcan. El hecho de que haya muchos menos insectos eso sí que es preocupante. Yo diría que hay que pasar de la preocupación por los pájaros a la preocupación por los insectos, sobre todo los que van de flor en flor, los voladores. Y eso tiene que ver muchísimo con el uso de pesticidas.

Es lo que decías sobre las abejas…

Las abejas y todos. Yo recuerdo que cuando yo cogía el coche hace veinte años aquí mismo en Cataluña me quedaba el cristal del coche lleno de impactos de insectos muertos. Ahora hay muchísimos menos. Eso es una apreciación personal. Pero si uno lee artículos publicados en revistas científicas en donde se ha hecho un seguimiento del nivel de insectos en muchas zonas boscosas se ve que ha habido una disminución.


Antes de terminar, quería preguntarte por la figura de Carson. Ella escribió su libro cuando estaba luchando con un cáncer que le costó la vida dos años después. Para ti, a nivel personal, ¿qué significa la figura de Carson?

Yo creo que Carson fue una de esas personas que tiene la clarividencia de ver más lejos del día a día de todos los que estamos aquí en el planeta. Se dio cuenta del peligro que había con el uso indiscriminado de pesticidas en general y concretamente el DDT, cuando todo el mundo estaba convencido de que el DDT era una cosa muy buena.

En buena parte el movimiento ecologista empezó a partir del impacto del libro de Carson, porque ella planteó que puede que haya un día cuando en primavera haya silencio porque nos hemos cargado a todos los pájaros.

En esa época parecía que la naturaleza era inmensamente poderosa frente a la actividad de los humanos. Después se ha visto que no es así. Ahora somos muchos, tenemos mucha actividad y lo que estamos viendo es que ahora la naturaleza es como un jardín, que si no la cuidamos, pues la destruimos.

Quizá a ella le debemos que se salvasen un montón de especies de pájaros. Y ahora el trabajo no se ha acabado, porque tendríamos que preocuparnos por los insectos voladores.


Hablabas de Carson como visionaria. ¿También destacarías su gran determinación? Porque fue atacada constantemente por representantes de la industria de los pesticidas.

Claro que sí. Lo más fácil es intentar destruir a la persona en lugar de discutir las ideas que plantea y ver si son correctas o no. Carson fue una mujer super valiente porque se enfrentó a todo un estatus en Estados Unidos. Detrás de la fabricación de pesticidas y de insecticidas hay muchos intereses económicos. Muchísimas empresas se vieron amenazadas y pagaron a otros para que la atacasen.

Y además todo esto lo tuvo que sufrir cuando tenía un cáncer, con lo cual todo es mucho más penoso y difícil. Porque no es lo mismo estar bien de salud que ver que estás muy mal y te estás muriendo -porque entonces el cáncer era prácticamente una sentencia de muerte- y tienes que irte defendiendo y seguir manteniendo tus ideas. Yo creo que en ese sentido Carson es una figura de referencia mundial.

"Carson fue una mujer súper valiente porque se enfrentó a todo un estatus en estados unidos".

¿Recomendarías entonces la lectura de "Primavera Silenciosa" a las nuevas generaciones?

Claro que sí. Es el primer caso en donde se plantea que podemos hacer un impacto en la naturaleza que es irreversible.



Hasta aquí el artículo de mdzol. A continuación, les entrego una dirección electrónica desde donde podrán ver y bajar el libro Primavera silenciosa si así lo desean.

https://www.academia.edu/19544876/PRIMAVERA_SILENCIOSA

¡Hasta la Próxima!

domingo, 9 de octubre de 2022

Panorámica de la IA

 Hemos hablado, en estas páginas, estimados amigos, sobre los avances de la inteligencia artificial y de la robótica. Avances que, de acuerdo con las características de la Tecnología, son cada vez más rápidos y cada vez más profundos.

Es por este motivo que me he decidido a efectuar un relevamiento (de ninguna manera exhaustivo) sobre los logros de la IA. Ya haremos lo propio con la robótica.

Es muy importante tener en cuenta las implicancias de lo que a continuación se muestra en la vida cotidiana de los humanos. La vieja frase latina: Si vis pacem para bellum nos recuerda que, para alcanzar los objetivos deseados, hay que prepararse y no estar ajeno a las realidades que nos rodean.

Espero que la siguiente recopilación cumpla con ese objetivo.

¡Hasta la próxima!

El CEO de esta empresa china es una IA: Se llama Señora Tang Yu y manda con mano de hierro

¿Es la inteligencia artificial capaz de gestionar una empresa? La IA Señora Tang Yu ya está al cargo de una compañía en Hong Kong.

 

A medida que pasa el tiempo, la inteligencia artificial gana protagonismo en cualquier conversación de andar por casa. Esta rama de la tecnología está ganando enteros debido a sus múltiples aplicaciones potenciales. Si a ello se une la presencia de importantes novedades a nivel robótico, obtenemos un momento clave. ¿Habrá humanoides pronto que no podremos diferenciar de los seres humanos? Esto no parece que vaya a ocurrir en el corto plazo, pero lo cierto es que están produciéndose toda una serie de hitos que cabe la pena destacar.

Tecnología

¿Y si te dijera que hay un CEO de una empresa en China que, en realidad, es una Inteligencia Artificial (AI por sus siglas en inglés)? Se llama Tang Yu y es capaz de tomar decisiones de gran relevancia con el único objetivo de preservar la compañía en el medio y largo plazo. Se trata de una interesante opción que sirve para demostrar hasta qué punto nos encontramos ante una tecnología avanzada en este sentido. ¿Recuerdas cuando un programa de esta clase le pidió a un empleado de Google los servicios de un abogado? Sin duda alguna, se están produciendo importantes avances en la materia.

Veamos, en esta ocasión, cómo es capaz de gestionar una empresa una IA que ha sido creada, especialmente, para llevar el timón de la misma. La compañía en cuestión es Fujian NetDragon Websoft Co., Ltd y, sin duda alguna, podría ser un referente en lo que se refiere a un modelo de gestión. He aquí las claves para entender cómo un programa de estas características puede llegar a ser capaz de manejar los diversos departamentos de los que se compone la firma.

Por qué una IA podría ser CEO de algunos tipos de compañía en particular

De acuerdo con la información de PR Newswire, Tang Yu agilizará el flujo de procesos, mejorará la calidad de las tareas de trabajo y mejorará la velocidad de ejecución de las mismas en el ámbito de su sector. El funcionamiento de esta tecnología digital 

ha sido perfeccionado para llevar a cabo una serie de funciones concretas, por lo que, para todo lo demás, será necesaria la presencia de una persona de carne y hueso. Aun así, podrá acometer muchas tareas de forma completamente autónoma.

Se trata, por tanto, de una especie de gestor que ha sido especializado en el tratamiento de información y en la toma de datos. Dicho de otro modo, ejerce la misma función que la que posee una centralita en un coche autónomo. Es capaz de recopilar información, tratarla mediante la inclusión de la misma en una base de datos para una posterior toma de decisión. De esta manera, es posible llevar a cabo gestiones diarias de mando sin necesidad de que pueda haber ningún tipo de conflicto a nivel emocional.

Creemos que la IA es el futuro de la gestión empresarial, y el nombramiento de la Sra. Tang Yu representa nuestro compromiso de adoptar verdaderamente el uso de la IA para transformar la forma en que operamos nuestro negocio y en última instancia, impulsar nuestro crecimiento estratégico futuro.
Dejian Liu, presidente de NetDragon

Habrá que estar muy atentos para ver qué es lo que ocurre con el funcionamiento de este modelo de gestión futurista. ¿Están los sistemas basados en IA preparados para llegar a los puestos de dirección empresarial? Quizás, todavía sea muy pronto para poder despejar esta incógnita. No obstante, echando un rápido vistazo a lo rápido que ha avanzado la industria de esta clase, bien podría decirse que no habría que destacar esta posibilidad. Sea como fuere, nos encontramos a mitad de una profunda revolución robótica.

 

Una película generada por IA donde tus decisiones afectan la historia: Así funciona "SALT"

Este experimento audiovisual está por convertirse en un fenómeno de masas.

 

Las herramientas de creación de contenido a través de inteligencia artificial nos rodean. Si bien no están disponibles para todos los públicos, su uso podría generalizarse en unos años, enfrentándonos a obras que no han sido ideadas por consciencias no humanas y que ponen a prueba todo lo que conocíamos hasta la fecha. En esta ocasión, SALT es una pieza de ciencia ficción que está siendo creada en tiempo real y que ya propone una historia que podría haber sido un éxito en el cine de los años 70 y 80.

Tecnología

No es la primera vez que te hablamos del uso de la IA en Urban Tecno, en otras ocasiones te hemos mostrado un lado mucho más terrorífico como en el artículo en que te mostrábamos como una IA creó 40.000 nuevas armas químicas en 6 horas, pero sin lugar a dudas es uno de los casos más apasionantes con los que nos hemos topado.

https://twitter.com/i/status/1536799731774537733

Sal, naves espaciales y una historia creada por y para la audiencia de Twitter

Fabian Stelzer ha convertido la cuenta de Twitter SALT en una de las historias interactivas más interesantes de los últimos años. Según la información publicada en CNN, Fabian ha utilizado diversas herramientas para crear una película que va tomando, poco a poco, forma y que ha sido imaginada en su conjunto por distintas IA. En la parte visual, el responsable de SALT ha utilizado plataformas como Stable Diffusion, Midjourney o DALL-E 2, mientras que para ir creando un guión convincente, Fabian Stelzer ha usado GPT-3, otorgando voz a sus protagonistas a través de herramientas como Synthesia o Murf.

A través de la cuenta de Twitter de SALT, el señor Stelzer está imaginando un universo de aventuras que muchos directores y productores hubiesen querido para sí, décadas atrás en el tiempo. Twitter, a través de su magia, posibilita que los seguidores de la cuenta puedan decidir el camino que tomará la historia, que está siendo escrita por una inteligencia artificial. El primer episodio nos acercaba al planeta Kaplan 3 y nos ponía en aviso de un problema en las minas de sal del planeta. La audiencia decidió que, una vez en la oscuridad, el tripulante tenía que examinar los registros SALT. Lo que dio paso al siguiente episodio.

El siguiente capítulo, el número dos de esta inquietante aventura espacial, nos muestra cómo la nave cuenta con una compañía de lo más extraña. La sal parece invadir ciertas partes del vehículo espacial, aunque es peor el descubrimiento que se hace al final del capítulo. ¿Una anomalía temporal que muestra al protagonista en otra época? La audiencia ya ha votado para se establezca una conversación entre ambos, que será lo siguiente que veamos. Sin duda alguna, este viaje a través del universo está creando una pieza difícil de catalogar, pero que podría mostrarnos el camino de un nuevo arte en el siglo XXI: obras sin creador humano.

 

Amazon añadió más inteligencia artificial a los Echo Dot

La nueva generación de altavoces inteligentes traerá mejoras en audio y adaptación al entorno del usuario

Amazon mostró las nuevas funciones de los Echo Dot para este 2022.

Amazon presentó una nueva generación de Echo Dot con una mejora en el audio y su inteligencia. Los cambios estéticos de este próximo dispositivo no son muy grandes, están direccionados más a los cambios LED en el reloj, que ahora también será una pantalla para ver, por ejemplo, los títulos de las canciones, temperatura o incluso un cálculo matemático.

Mejoras en la inteligencia artificial de Echo Dot

Los cambios en este apartado están direccionados a un concepto que la empresa llama “experiencias más contextualizadas”, por lo que se añadieron nuevos sensores que se complementan con las mejoras de software.

Así que este nuevo dispositivo podrá, por ejemplo, apagar un aire acondicionado cuando se alcance una temperatura adecuada o determinada en el espacio en el que está ubicado.

Adicionalmente, la inclusión del procesador AZ2 Neural Edge le dará a Alexa una mayor velocidad de respuesta y también permitirá que los asistentes funcionen como un repetidor de WiFi, lo que ayudará mucho a la experiencia de conectividad en casa.

En el caso de los dispositivos de esta generación que incluyan pantalla, los niños encontrarán una relación más directa con Alexa ya que podrán crear juntos historias al elegir conceptos y personajes que van apareciendo. También se incluye Shop the look, que es una forma de realizar compras a través de la IA que va reconociendo productos gracias a fotos del catálogo de Amazon.

En lo que tiene que ver con la manera en que se usa, se añadieron controles a un toque para pausar o pasar una canción, pero también para responder llamadas o apagar temporizadores.

Cambios en el sistema de audio del Echo Dot

Aquí hay una movida con varios puntos destacados, porque la compañía incluyo todo un nuevo hardware que permite que el dispositivo tenga hasta el doble de graves que su versión anterior.

Esta es la nueva arquitectura de audio de la quinta generación de Echo Dot de Amazon

El cambio en toda la arquitectura no afectará nada del diseño y por el contrario se añadió un controlador de rango, que ayuda a que las voces sean mucho más claras, lo que se traduce en una mejor experiencia al escuchar música, podcast e incluso al mismo asistente.

Qué pasa con Echo Studio

El altavoz inteligente de Amazon tiene varias novedades interesantes para este año, ya que incluye audio espacial por primera vez y una mayor gama de frecuencias, lo que da más claridad y fuerza a lo que se reproduzca en él.

Pero sin duda el tema del audio espacial es de lo más llamativo, porque muchas otras empresas lo han incluido y lo que hace es mejorar el sonido estéreo a través de la simulación de formatos multicanal.

Por lo que sumado a las licencias de Dolby Atmos y Sony 360 Reality Audio, haya una experiencia con buenos estándares de calidad, porque incluso se puede aprovechar en formatos que no estén adaptados al sonido espacial.

En la práctica se puede entender este sistema de la siguiente manera: las voces salen del centro del dispositivo, mientras que los instrumentos lo hacen de los costados y así se da un audio más envolvente.

El modelo del Echo Studio de Amazon para este 2022.

Amazon también anunció una nueva generación de lectores electrónicos Kindle, que garantiza una resolución muchísimo mayor y el doble de almacenamiento.

El nuevo modelo de este lector casi duplica la densidad de píxeles, pasando de 167 a 300 píxeles por pulgada (ppi). Además, se mejoró la memoria hasta los 16 gigabytes (GB) y se incorporó una toma USB-C. En cuanto a la pantalla, se mantuvo la de seis pulgadas con retroiluminación, pero se redujeron las dimensiones externas del dispositivo.

SEGUIR LEYENDO

Amazon Prime Video tiene nuevas funciones en la aplicación

Prime Video firma un acuerdo con este importante guionista y director colombiano

Prime Video, Netflix y HBO Max: cómo ver contenido de otros países en las plataformas 

Con Inteligencia Artificial: Adolescente crea software para detener caza furtiva de elefantes

Anika Puri, una joven de 17 años, creó un modelo basado en la Inteligencia Artificial para analizar los patrones de movimientos de humanos y elefantes.

 La caza de elefantes es ilegal en todo el mundo, pero se mantiene furtiva en regiones de África y la India. Para luchar contra este flagelo, una adolescente creó un software basado en Inteligencia Artificial.

La población de elefantes en los bosques africanos disminuyó un 62% en la primera década del siglo XXI, y aunque las cifras han mejorado, aún continúa la caza furtiva. Esto alarmó a Anika Puri, una joven de 17 años nacida en Chappaqua, Nueva York, pero hija de indios.

En una visita a Bombay junto con su familia, Puri se sorprendió al encontrar un mercado donde se vendían joyas y estatuas hechas de marfil, material de los colmillos de elefantes.

“Me quedé bastante desconcertada”, dijo al Smithsonian Magazine. “Siempre pensé ‘Bueno, si la caza furtiva es ilegal, ¿cómo es que realmente sigue siendo un problema tan grande?”.

ElSa, el software con Inteligencia Artificial para la vigilancia de elefantes

En dos años, Puri desarrolló el prototipo de un software llamado ElSa (Elefante Salvador), que utiliza la Inteligencia Artificial para analizar patrones de movimiento en videos infrarrojos térmicos de humanos y elefantes.

La Inteligencia Artificial tiene como objetivo intentar reproducir la inteligencia humana utilizando un robot o un software. Su base es el aprendizaje automático y el aprendizaje profundo.

Anika Puri. Esta joven creó un software con inteligencia artificial para vigilar y proteger a los elefantes

Mientras que el aprendizaje automático permite que una computadora se adapte a nuevas situaciones sin intervención humana, el aprendizaje profundo, como un subconjunto del primero, se basa en el uso de datos que ya conoce. Se inspira el profundo en la estructura del cerebro humano.

Gracias al software de Puri, que se aplica en software de drones, los métodos de detección de elefantes son cuatro veces más precisos. Al poder localizarlos, se les puede vigilar, evitando su caza furtiva.

Así trabaja el sistema de protección de elefantes con base en la Inteligencia Artificial

El sistema de la adolescente elimina también la necesidad de cámaras térmicas de alta resolución, que pueden costar miles de dólares. ElSa utiliza una cámara térmica FLIR ONE Pro de 250 dólares, con una resolución de 206x156 píxeles que se conecta a un iPhone 6 comercial.

Posteriormente, la cámara y el iPhone se conectan a un dron, y el sistema produce inferencias en tiempo real mientras vuela sobre los parques, diferenciando si los objetos debajo son humanos o elefantes.

Para crear el modelo, Puri encontró patrones de movimiento de humanos y elefantes con Benchmarking IR Dataset for Surveillance with Aerial Intelligence, un conjunto de datos recopilado por Elizabeth Bondi-Kelly, una científica informática de Harvard.

https://www.youtube.com/watch?v=YYfZfS9Mg2k

Examinando los datos, la joven identificó 516 series de tiempo extraídas de videos que capturaron humanos o elefantes en movimiento. Con un algoritmo de aprendizaje automático para entrenar un modelo, con el fin que clasifique una figura como un elefante o un humano, Puri identificó 300 movimientos del animal y 72 de la persona.

El modelo ElSa, sumado con el de Bondi-Kelly, pudo detectar humanos con más del 90% de precisión.

Puri comenzará a estudiar ingeniería eléctrica e informática en el Instituto Tecnológico de Massachusetts (MIT) y espera expandir su investigación de patrones de movimiento a otros animales en peligro de extinción, como los rinocerontes.

Los actores ya no necesitan trabajar, una inteligencia artificial puede hacerlo por ellos. Y Bruce Willis lo sabe


Bruce Willis se retiró del cine hace unos meses por problemas de salud, pero eso no le impedirá seguir apareciendo en próximas películas y proyectos. La solución se llama inteligencia artificial. A través de deepfakes, el actor podrá seguir mostrándose sin tener que actuar para la ocasión. Porque lo que hasta la fecha era un uso esporádico de esta tecnología, Bruce Willis lo va a convertir en su futuro.

El primer actor en vender sus derechos de imagen para la IA. Es un movimiento pionero en Hollywood. Bruce Willis se ha convertido en el primer actor que ha vendido sus derechos de imagen para que su rostro pueda ser recreado en películas y otros proyectos a través de la inteligencia artificial.

No obstante, Bruce Willis ya tenía experiencia con el uso de los deepfake. El año pasado participó con la empresa de gemelos digitales para la creación de un anuncio publicitario para la empresa rusa MegaFon. Parece que aquello tuvo éxito, porque el actor ha decidido dar un paso más.

https://www.youtube.com/watch?v=c8B31MB2KNw

https://www.youtube.com/watch?v=YI_kf5GcHTA

Un Bruce Willis digital basado en 34.000 fragmentos. Para la creación del gemelo digital, la compañía Deepfake.io explica que se utilizaron miles de fragmentos de películas como 'Jungla de Cristal' o 'El Quinto Elemento'. En total se entrenó a la IA durante 14 días, aunque la empresa explica que es posible crear un deepfake completo en unos 4 o 5 días.

"Me gustó la precisión con la que resultó mi personaje. Es una minipelícula en mi género habitual de acción-comedia. Para mí, es una gran oportunidad de retroceder en el tiempo. Con la llegada de la tecnología moderna, incluso estando en otro continente, pude comunicarme, trabajar y participar en el rodaje. Es una experiencia muy nueva e interesante, y doy las gracias a todo nuestro equipo", explica Willis.

Las grandes franquicias no quieren arriesgarse a quedarse sin el actor. Cuando Brandon Lee murió durante el rodaje de 'El Cuervo' hubo que finalizar sus escenas con CGI. Complementar con tecnología los problemas de los actores no es algo nuevo y Hollywood lleva décadas haciéndolo.

El uso está tan extendido que grandes franquicias como Star Wars no contemplan otra cosa. Los actores son copiados digitalmente por si quieren usarlos en futuras series o películas. También ha ocurrido con actores franquicia como Arnold Schwarzenegger o Jim Carrey. La novedad con Bruce Willis es que ha vendido sus derechos directamente a la empresa de deepfakes, dejando que su imagen sea utilizada más allá de las sagas en las que hubiera aparecido anteriormente.

Que una máquina doble a Darth Vader nos da pistas preocupantes sobre el futuro del cine

Una opción muy interesante para actores que se retiran. Trabajar hasta poder vivir de rentas. Lograr crear una imagen reconocible en todo el mundo para que después una IA pueda hacer el trabajo. Esta opción no es una utopía y ya la estamos viendo como una opción factible en el mundo del cine. Recientemente James Earl Jones, voz de Darth Vader desde 1977, ha anunciado que dejará de colaborar con futuras películas de Star Wars y su mítica voz será sustituida por una IA. Tiene ya 91 años.

Con Bruce Willis ocurre algo similar. No es ya que confíen en el enorme potencial de la inteligencia artificial, sino que por distintas causas ya no están físicamente para actuar directamente. En este contexto, la IA se presenta como una alternativa muy beneficiosa para todos. Para los actores que consiguen unos beneficios extra y para los estudios de Hollywood, que podrán seguir aprovechando el talento y el carisma de estos actores. Porque esto último, es algo que la IA todavía no puede sustituir.

 

Así trabajan los humanos y la inteligencia artificial para crear desarrollos también de IA

La plataforma ayuda a automatizar la anotación de datos para los procesos de computación

La plataforma de inteligencia artificial (IA) Geti permite a los equipos humanos donde hay científicos de datos hasta expertos en dominios, mejorar su capacidad para desarrollar rápidamente modelos de inteligencia artificial (IA) listos para la producción.

“Es un paso adelante en la simplificación de las tareas de anotación, entrenamiento, optimización e implementación de modelos de visión artificial. Lo logran con un potente conjunto de funciones y una interfaz de usuario intuitiva”, afirmó el CEO de Intel, Pat Gelsinger.

Por lo tanto, desarrolladores de la empresa de Intel, los cuales crearon la idea, pueden usar esta ayuda para agilizar los tiempos en sus investigaciones.

Características clave de la plataforma

Geti incluye un soporte multitarea para automatizar la segmentación, clasificación, detección de objetos giratorios o detección de anomalías; además, cuenta con a opción de anotación inteligente con amplias opciones de dibujo.

Así mismo, tiene aprendizaje activo utilizando inteligencia artificial interactiva donde los humanos participan en el proceso, lo que ayuda a automatizar la anotación de datos y minimizar el entrenamiento de datos requerido.

También, puede encadenar fácilmente varias tareas para desarrollar un modelo detallado sin tener que codificar ningún paso durante el procesamiento previo o posterior.

En el Royal Brampton Hospital de Inglaterra se puso a prueba esta IA

El Royal Brompton Hospital es uno de los centros médicos para el corazón y los pulmones más importantes de Londres y fue en ese sitio donde la nueva plataforma de visión por computadora ayudó a los médicos a entrenar algoritmos de inteligencia artificial para detectar una enfermedad rara: la discinesia ciliar primaria (PCD).

La discinesia ciliar primaria (PCD, por sus siglas en inglés) es un trastorno hereditario raro que daña los cilios de una persona, estructuras diminutas parecidas a cabellos que recubren las vías respiratorias y ayudan a protegerlas de infecciones. “La PCD es una de las enfermedades más difíciles de diagnosticar”, dice Claire Hogg, profesora de medicina respiratoria pediátrica en el hospital.

Discinesia ciliar primaria. (foto: Royal Brompton Hospital)

“El proceso requiere las habilidades especializadas de biólogos celulares, fisiólogos celulares y médicos para interpretar los resultados de varias pruebas complejas. Por lo tanto, estamos buscando formas de automatizar partes clave del proceso de diagnóstico utilizando inteligencia artificial”, agregó.

En este contexto, la plataforma de entrenamiento de inteligencia artificial Geti, que puede ser utilizada por cualquier persona:

“Dado que los cilios humanos han permanecido estructuralmente sin cambios durante milenios, el reconocimiento de anomalías es una tarea fácil para algoritmos de aprendizaje automático”, asegura Hogg. Además, prosigue, “como la plataforma Geti trabaja en un bucle de retroalimentación continua con los expertos humanos, puede aprender a deducir lo que buscan. Ya es una más del equipo”, culminó.

Cómo aprender de marketing con tecnología

El 5 y 6 de octubre próximo se llevará a cabo la segunda versión de Revenue Day 2022, un evento digital sobre tecnología y emprendimiento. Se estima que en esta oportunidad participen más de 3.000 personas.

El Revenue Day es el primer evento de Latinoamérica que reúne a líderes empresariales con trayectoria en áreas de Revenue, Sales, Marketing y Customer Success. A través de una plataforma digital all-in - one el evento, además de charlas en vivo, traerá una oportunidad de networking.

“Tendremos alrededor de 20 horas de contenido, una expo virtual para que los patrocinadores puedan compartir sus productos y servicios, un espacio de networking, más de 40 speakers, participantes conectados desde más de 35 países y la oportunidad de aprender sobre, estrategias, metodologías de trabajo, optimización, indicadores de desempeño y mejores prácticas” afirmó Felipe Ortiz, CEO del Revenue Day.

SEGUIR LEYENDO

La inteligencia artificial que convierte cualquier persona o palabra en un Pokemón

Darth Vader de 1977 está vivo con esta inteligencia artificial

Inteligencia artificial muestra a Nefertiti, Julio César y Moe si existieran en la actualidad

 

Ya puedes probar DALL·E, la inteligencia artificial generadora de imágenes, sin lista de espera

OpenAI abre al público la beta de DALL·E 2, pero no será completamente gratis

En un universo paralelo, estos son los cinco redactores de Gizmodo. Pero ninguna de estas personas existe en este universo porque las acabo de crear con DALL·E, el modelo de aprendizaje automático desarrollado por OpenAI para generar imágenes a partir de otras con descripciones en lenguaje natural.

OpenAI anunció ayer que DALL·E ya está disponible para todo el mundo, sin lista de espera. Si bien 1,5 millones de usuarios han estado probando ya la versión beta, la compañía ha tardado en dar acceso al resto del mundo para “escalar de forma responsable un sistema tan potente y complejo”.

Entretanto, otros sistemas generadores de imágenes como Craiyon, Midjourney y Stable Diffusion se han vuelto tremendamente populares entre el público, ya sea para crear imágenes artísticas con las que ilustrar proyectos o para generar fotos absurdas que compartir como memes.

El potencial de modelos como DALL·E siembra la duda de qué pasará en el futuro con el mundo del arte. Hace unos días, una imagen generada con inteligencia artificial ganó un concurso de bellas artes sin que los jueces supieran que era una ilustración generada automáticamente.

Pero estos sistemas también abren posibilidades inquietantes en la generación de noticias falsas. DALL·E es muy estricta en ese sentido y sus condiciones de uso prohíben generar imágenes violentas, sexuales o con la cara de personas reales, como políticos y famosos.

También es cierto que DALL·E no es un sistema gratuito. La API se está probando con clientes selectos, mientras que la web, ahora abierta al público, tiene un límite de imágenes gratis a partir del cual hay que pagar.

En concreto, cada usuario recibe 50 créditos gratis durante su primer mes de uso, además de 15 créditos gratuitos adicionales en los meses siguientes. Un crédito permite generar un set de cuatro imágenes, por lo que 50 créditos equivalen a 200 imágenes basadas en 50 descripciones de texto diferentes o “inputs”. Los usuarios pueden añadir saldo a su cuenta en incrementos de 115 créditos por 15 dólares. Es decir, con 15 dólares, podrás crear 460 imágenes nuevas a partir de 115 inputs distintos.

Además de imágenes originales, generadas a partir de una descripción escrita en lenguaje natural, DALL·E puede hacer ediciones sobre una imagen subida como fuente (la IA cambia o amplía una foto o una obra de arte) y generar variaciones a partir de una imagen (la IA crea cuatro imágenes nuevas inspiradas en la original). Todas estas acciones cuestan un crédito, pero generan cuatro resultados en lugar de uno.

La inteligencia artificial podría anticipar la transmisión de futuras infecciones de animales a humanos

Investigadores de la Universidad del Sur de Florida crearon una metodología para localizar puntos críticos y en riesgo de enfermedades emergentes tanto a escala global como local

 

La frecuencia con la que las enfermedades emergentes de la vida silvestre infectan a los humanos ha aumentado constantemente durante las últimas tres décadas. Los agentes patógenos, como dejaron en evidencia la pandemia de coronavirus y el reciente brote de viruela símica, han aumentado la necesidad de herramientas para pronosticar cuándo y dónde es probable que surjan brotes de enfermedades.

El trabajo fue realizado por Ángel Luis Robles Fernández de la Universidad Veracruzana en México, actual estudiante de doctorado en Arizona State University, como autor principal, acompañado de Diego Alarcón, del Departamento de Biología Integrativa de la Universidad del Sur de Florida Andrés Lira-Noriega de la Red de Estudios Moleculares Avanzados, Instituto de Ecología AC de Xalapa, México.

El estudio ayudó a desarrollar una metodología destinada a estimar y anticipar la transmisión de una especie de vida silvestre a otra o a humanos, y determinar quién está en riesgo de infección, según un estudio publicado en Proceedings of the National Academy of Sciences.

La metodología consiste en un enfoque de aprendizaje automático que identifica la influencia de variables, como la ubicación y el clima, en patógenos conocidos. Usando solo pequeñas cantidades de información, el sistema puede identificar puntos críticos de la comunidad en riesgo de infección tanto a escala global como local.

“Nuestro objetivo principal es desarrollar esta herramienta para medidas preventivas - explicó el coinvestigador principal Diego Santiago-Alarcón, profesor asistente de biología integrativa de la USF-. Es difícil tener una metodología multipropósito que pueda usarse para predecir infecciones en todos los diversos sistemas de parásitos, pero con esta investigación, contribuimos a lograr ese objetivo”.

Con la colaboración de investigadores de la Universidad Veracruzana y el Instituto de Ecología, ubicados en México, Santiago-Alarcón examinó tres sistemas huésped-patógeno: malaria aviar, aves con el virus del Nilo Occidental y murciélagos con coronavirus, para probar la confiabilidad y precisión del modelos generados por la metodología. El equipo descubrió que para los tres sistemas, la especie infectada con mayor frecuencia no era necesariamente la más susceptible a la enfermedad.

Para identificar mejor a los huéspedes con mayor riesgo de infección, fue importante identificar factores relevantes, como el clima y las relaciones evolutivas. Mediante la integración de variables geográficas, ambientales y de desarrollo evolutivo, los investigadores localizaron especies huésped que no habían sido registradas previamente como infectadas por el parásito en estudio, lo que proporcionó una forma de identificar especies susceptibles y, finalmente, mitigar el riesgo de patógenos.

“Confiamos en que la metodología es exitosa y se puede aplicar ampliamente a muchos sistemas huésped-patógeno -completó Santiago-Alarcón-. Ahora entramos en una fase de mejora y perfeccionamiento”.

Los resultados demuestran que la metodología es capaz de proporcionar predicciones globales fiables para los sistemas huésped-patógeno estudiados, incluso cuando se utiliza una pequeña cantidad de información. Este nuevo enfoque ayudará a dirigir la vigilancia de enfermedades infecciosas y los esfuerzos de campo, proporcionando una estrategia rentable para determinar mejor dónde invertir los recursos limitados de enfermedades.

Predecir qué tipo de patógeno producirá la próxima infección médica o veterinaria es un desafío necesario. A medida que aumenta la tasa de impacto humano en los entornos naturales, nuevas enfermedades emergentes aparecerán en el escenario.

La humanidad, y de hecho la biodiversidad en general, están experimentando cada vez más desafíos de enfermedades infecciosas como resultado de nuestra incursión y destrucción del orden natural en todo el mundo a través de situaciones como la deforestación, el comercio global y el cambio climático -explicó Andrés Lira-Noriega, investigador en el Instituto de Ecología de la misma universidad-. Esto impone la necesidad de contar con herramientas como la que estamos publicando para ayudarnos a predecir dónde pueden ocurrir o surgir nuevas amenazas en términos de nuevos patógenos y sus reservorios”.

El equipo planea continuar con su investigación para probar más a fondo la metodología en sistemas huésped-patógeno adicionales y ampliar el estudio de la transmisión de enfermedades para predecir futuros brotes con el objetivo de hacer que la herramienta sea fácilmente accesible a través de una aplicación abierta a la comunidad científica para fines de este año.

NVIDIA anunció una IA capaz de crear objetos tridimensionales usando fotografías

GET3D, la nueva inteligencia artificial de NVIDIA, ha podido crear varios objetos como automóviles, sillas, animales, motocicletas, personas o edificios

Tras el “boom” de las imágenes producidas por la inteligencia artificial, el siguiente paso de esta tecnología está asomándose poco a poco para el deleite de todos los usuarios.

NVIDIA anunció GET3D, un nuevo modelo de IA que puede crear objetos 3D que se pueden usar en videojuegos, películas o en el metaverso. Usando la GPU y las imágenes 2D tomadas desde múltiples ángulos, el modelo puede crear formas complejas con texturas de alta calidad.

Según la publicación del blog de NVIDIA, los ingenieros entrenaron el modelo de IA en 1 millón de imágenes. Utilizando varias GPU A100 Tensor Core, el equipo alcanzó su objetivo en dos días. Según la compañía, GET3D puede producir 20 objetos por segundo con una sola GPU, lo que facilitaría el trabajo de los artistas y productores de contenido.

“El mundo real está lleno de variedad: las calles están llenas de edificios únicos, con diferentes vehículos zumbando y diversas multitudes pasando. Modelar manualmente un mundo virtual 3D que refleje esto requiere mucho tiempo, lo que dificulta completar un entorno digital detallado”, menciona NVIDIA.

Hasta ahora, GET3D ha podido crear varios objetos, desde automóviles, sillas, animales o motocicletas hasta personas o edificios. La plantilla se puede combinar con otras herramientas de IA de NVIDIA para crear un objeto con un estilo específico.

Los ingenieros mencionan que puede crear redes 3D muy detalladas con una topología compleja y texturas realistas que se pueden exportar a motores de juegos o aplicaciones de renderizado.

Los objetos tridimensionales son editables para utilizarlos en películas o videojuegos

Uno de los puntos principales de GET3D es que los resultados se pueden modificar, lo que era difícil en experimentos anteriores.

A primera vista, el resultado es similar al que se puede obtener cuando se utiliza la técnica de la fotogrametría con un modelo detallado de red y estructura. La única desventaja es que los modelos de esta clase requieren un trabajo de “limpieza” posterior para optimizar el número de polígonos.

“Los trabajos anteriores sobre modelado generativo 3D carecen de detalles geométricos, están limitados en la topología de malla que pueden producir, normalmente no admiten texturas o utilizan renderizadores neuronales en el proceso de síntesis, lo que hace que su uso en software 3D común no sea trivial”, se puede leer en el blog oficial de NVIDIA.

Al igual que con otros modelos de aprendizaje profundo, cuanto más grandes sean los datos de entrenamiento, mejores serán los resultados. GET3D utiliza un conjunto de datos sintéticos, aunque los investigadores planean entrenar la próxima versión con datos reales.

https://www.youtube.com/watch?v=KfcsdhGKb1U

NVIDIA GET3D: modelo de IA para poblar mundos virtuales con objetos y personajes 3D

La siguiente versión de GET3D ya está en planes

Crear objetos 3D usando inteligencia artificial es interesante y NVIDIA ha dado un paso importante. Sin embargo, los modelos 3D para videojuegos, películas u otras aplicaciones de entretenimiento son mucho más complejos que un experimento Mindjourney o DALL-E.

Estos objetos deben cumplir con propiedades adicionales como el número de polígono o la topología cuando se usan en juegos o escenas que contienen animaciones.

Hace unas semanas, un programa similar fue tendencia en Twitter. El servicio Kaedim, que utiliza inteligencia artificial para crear modelos 3D a partir de imágenes 2D, ha llamado la atención de varios artistas. Después de publicar resultados impresionantes que eran demasiado buenos para ser verdad, algunos acusaron a la empresa de mentir y utilizar profesionales de 3D.

Finalmente, Kaedim apareció y dijo que aunque usa un algoritmo de IA para crear el objeto, un humano cambia el resultado final. Un “ingeniero de control de calidad” verifica el modelo y lo ajusta al estándar de calidad requerido por el cliente antes del envío.

Aunque optimiza el tiempo de producción en comparación con el trabajo manual, el algoritmo aún no puede proporcionar resultados confiables.

SEGUIR LEYENDO

Darth Vader de 1977 está vivo con esta inteligencia artificial

Equipo de surf de Estados Unidos usa inteligencia artificial para evitar accidentes

Inteligencia artificial muestra a Nefertiti, Julio César y Moe si existieran en la actualidad

La IA ya es capaz de hacer discursos con tu voz y eso da un poco de vértigo

Por si fuera poco, la inteligencia artificial, además de pintar, están aprendiendo a generar melodías y continuar nuestros discursos

Les mostramos partidas de ajedrez y se convirtieron en rivales imbatibles; les dejamos leer nuestros textos y se pusieron a redactar. También aprendieron a pintar y retocar fotografías. ¿Acaso alguien dudaba que la inteligencia artificial no iba a ser capaz de hacer lo mismo con los discursos y la música?

La división de investigación de Google ha presentado AudioLM (paper), un framework para generar audio de alta calidad que se mantenga consistente a largo plazo. Para ello, parte de una grabación de apenas unos segundos de duración, y es capaz de prolongarla de forma natural y coherente. Lo más reseñable es que lo logra sin ser entrenada con transcripciones o anotaciones previas pese a que el discurso generado sea plausible sintáctica y semánticamente plausible. Además, mantiene la identidad y la prosodia del hablante al punto de hacer que el oyente no sea capaz de discernir qué tramo del audio es original y cuál ha sido generado por una inteligencia artificial.

Los ejemplos de esta inteligencia artificial son sorprendentes. No solo es capaz de replicar la articulación, tono, timbre e intensidad, sino que es capaz de introducir el sonido de la respiración del hablante y de formar frases con sentido. Si no parte de un audio de estudio, sino de uno con ruido de fondo, AudioLM lo replica para darle continuidad. En la web de AudioLM, pueden escucharse más muestras.

Google Brain

Una inteligencia artificial entrenada en semántica y acústica

¿Cómo lo logra? La generación de audio o música no es nada nuevo. Pero sí lo es la forma que han discurrido los investigadores de Google para abordar el problema. De cada audio se extraen unos marcadores semánticos para codificar una estructura de alto nivel (fonemas, léxico, semántica…), y unos marcadores acústicos (identidad del hablante, calidad de la grabación, ruido de fondo…). Con estos datos ya procesados y comprensibles para la inteligencia artificial, AudioML comienza su labor estableciendo una jerarquía en la que predice primero los marcadores semánticos, que luego se emplean como condicionantes para predecir los marcadores acústicos. Estos últimos se vuelven a utilizar al final para convertir los bits en algo que los humanos podamos escuchar.

Esta separación semántica de la acústica, y su jerarquía, no solo es una práctica beneficiosa para entrenar modelos de lenguaje que generen discursos. Según los investigadores, también es más efectivo para continuar composiciones de piano, como muestran en su web. Es mucho mejor que los modelos que solo se entrenan mediante marcadores acústicos.

Lo más significativo de la inteligencia artificial de AudioLM no es que sea capaz de continuar discursos y melodías, sino que puede hacer todo a la vez. Es, por tanto, un único modelo de lenguaje que se pueda emplear para pasar texto a voz —un robot podría leer libros enteros y dar descanso a los dobladores profesionales— o para hacer que cualquier dispositivo pueda comunicarse con las personas mediante una voz familiar. Esta idea ya fue estudiada Amazon, que se planteó usar la voz de los seres queridos en sus altavoces Alexa.

¿Apasionante o peligroso?

Programas como Dalle-2 y Stable Diffusion son herramientas excepcionales que permiten esbozar ideas o generar recursos creativos en pocos segundos, como la ilustración usada en la portada de este artículo. El audio puede ser más importante incluso, y uno puede imaginar que la voz de un locutor se use bajo demanda por varias empresas. Incluso podrían doblarse películas con las voces de actores ya fallecidos. El lector se estará preguntando si esta posibilidad, aunque apasionante, no será peligrosa. Toda grabación de audio se podría manipular con fines políticos, legales o judiciales. Google dice que, aunque los humanos tengan dificultades para detectar qué proviene del hombre y qué de la inteligencia artificial, un ordenador sabe detectar si el audio es orgánico o no. Es decir, no solo la máquina nos puede reemplazar, sino que para valorar su trabajo será imprescindible contar con otra máquina.

De momento AudioLM no está abierto al público, es sólo un modelo de lenguaje que se podrá integrar en diferentes proyectos. Pero esta demostración, junto al programa de música Jukebox de OpenAI, demuestra lo rápido que nos estamos introduciendo en un nuevo mundo donde ya nadie sabrá, o no le importará, si esa fotografía está hecha por una persona o si al otro lado del teléfono hay una persona o una locución generada artificialmente en tiempo real.

Facebook confirma que su IA no puede eliminar parte del contenido de odio en la red social
‘El motivo’, la docuserie de Netflix que intenta buscar el origen de los crímenes violentos
Un ingeniero publica chats con la IA de Google y son tan locos que quizá deberíamos preocuparnos

La IA ya puede explicarnos qué hace un fragmento de código de programación, o traducirlo a otro lenguaje. Eso hace esta extensión para VS Code



La inteligencia artificial tiene aún mucho que decir en materia de programación. Si primero nos sorprendió CodeNet, la IA capaz de aprender a codificar ella sola en docenas de lenguajes, y más tarde llegaron AlphaCode (una IA capaz de rendir como un desarrollador promedio) y el polémico servicio de autocompletado de código GitHub Copilot, un asistente perfecto que, a efectos prácticos, permite que la IA coescriba software (basándose en la labor de cientos de miles de programadores open source, claro está).

Pero, ¿qué más puede ofrecer la inteligencia artificial a los programadores?

"Espera, que yo te lo explico"

Marcel Pociot es el CTO de BeyondCode, una compañía que desarrolla herramientas y material formativo para desarrolladores web. Hace un par de días, publicó en su cuenta de Twitter un breve vídeo acompañado del siguiente texto: "¿Alguna vez te has preguntado qué está haciendo una pieza de código en particular? Saluda a TLDR".

"TLDR" son las siglas en inglés de "Demasiado largo, no lo he leído", y se utiliza en general cuando un texto es demasiado largo y/o farragoso como para perder tiempo leyéndolo entero y prefieres que te den un resumen. Aunque no es exactamente eso lo que vemos en el vídeo en cuestión, no se aleja tanto: ahí podemos leer, en su lugar, código de un proyecto web en Laravel que, obviamente, resultará difícil de interpretar para el ojo inexperto.

El código parece encontrarse en el área de trabajo de algún entorno de programación (probablemente PHPStorm), a juzgar por el menú contextual que de pronto vemos aparecer en la imagen, hasta que el usuario selecciona la opción 'TLDR' tras haber seleccionado una porción del texto. Y ahí es cuando, tras unos breves segundos, vemos aparecer el resultado de esta misteriosa función...

... repetinamente, se nos muestra una viñeta de texto en la que se nos explica, paso a paso qué hace ese código y cuáles son los posibles valores que puede devolvernos la función.

Codex, la mente (artificial) detrás de TLDR y de GitHub Copilot Labs

Cualquier programador sabe que, cuando se nos plantea la necesidad de trabajar con código ajeno (o con código propio, si hace mucho que lo escribimos), puede resultar bastante confuso hasta que finalmente nos hacemos a la idea de qué hace qué y en qué momento. Y ni siquiera los comentarios (en el caso de existir) pueden ser siempre de ayuda fuera del contexto en que se escribieron.

Ahí es donde entra 'TLDR' de BeyondCode, una función -seguro que ya lo has adivinado- impulsada por inteligencia artificial. Concretamente, según explica el propio Pociot, por el modelo Codex de OpenAI, el mismo que podemos encontrar detrás de GitHub Copilot. Y de hecho, el propio Copilot también ha estrenado recientemente una función muy similar.

Y es que resulta que, aunque haya pasado bastante desapercibido, el equipo de GitHub Next liberó recientemente una extensión experimental para Visual Studio Code llamada GitHub Copilot Labs, que nos permite igualmente desplegar una explicación del código seleccionado (en inglés)...

...e incluso una 'traducción' a otro lenguaje, lo cual puede ser muy útil si tenemos que trabajar con un lenguaje en el que nos desenvolvamos aún demasiado bien, permitiéndonos traducirlo a otro con el que tengamos más experiencia. Así, en el siguiente ejemplo, tenemos un código en JavaScript traducido a Python:

https://giphy.com/gifs/vBJiP3yUIuJfEntNIJ?utm_source=iframe&utm_medium=embed&utm_campaign=Embeds&utm_term=https%3A%2F%2Fwww.genbeta.com%2Fdesarrollo%2Fia-puede-explicarnos-que-hace-fragmento-codigo-traducirlo-a-otro-lenguaje-eso-hace-esta-extension-para-vs-code

Imagen | Basada en originales de Arild Finne Nybø (vía Flickr) y generados por DALL-E 2

Esta inteligencia artificial ya traduce y transcribe cualquier audio

La nueva generación de tecnología de voz a texto ya está aquí, y llega potenciada por la inteligencia artificial. Aquí te contamos cómo funciona Whisper, una IA de OpenAI que llega a cambiar el panorama.


Whisper es una nueva inteligencia artificial de OpenAI que planea revolucionar los traductores y las tecnologías de voz a texto. De acuerdo a ArsTechnica, esta IA es capaz de transcribir y traducir entrevistas, podcasts, conversaciones y mucho más. Pero lo mejor de todo es que su capacidad para hacerlo está casi al nivel de un humano.

Según comentan desde OpenAI, su inteligencia artificial se ha entrenado con más de 680.000 horas de audio. Pero, además de escuchar, Whisper también ha tenido que hacer coincidir dichas palabras con texto escrito.

Gracias a la red neuronal de la inteligencia artificial, puede utilizar contexto a partir de los datos de entrada, para posteriormente aprender asociaciones que pueden traducirse en la salida del modelo.

Cómo funciona Whisper, la IA capaz de traducir y transcribir cualquier entrada de audio

"El audio de entrada se divide en trozos de 30 segundos", describe OpenAI en la publicación oficial. De esta forma, "se convierte en un espectrograma... y se pasa al codificador".

Pero no es todo. Posteriormente, se entrena al codificador para predecir el texto correspondiente. ¿Cómo se hace? Se entremezclan tokens especiales que orientan al modelo a llevar a cabo una sola tarea, como la de identificación de idioma. Después se añaden a la ecuación otras variables, como la identificación de las marcas de tiempo a nivel de frase, la transcripción del habla multilingüe y la traducción al inglés.

Lo mejor de todo es que el trabajo de Whisper no acaba aquí. OpenAI ha decidido publicar su código para que pueda funcionar como base a los futuros procesadores del habla y herramientas de accesibilidad. Por lo tanto, hay oportunidad de ver mejoras en la inteligencia artificial.

Los resultados son impresionantes

El citado medio señala que la tecnología detrás de esta inteligencia artificial es tan impresionante como sus resultados. Utilizaron un episodio de podcast para probar su poder, mismo que contenía un fragmento donde se había usado un teléfono para transmitir audio, por lo que la calidad dejaba mucho que desear.

A pesar de esto, Whisper hizo un buen trabajo transcribiendo el texto mientras se encontraba corriendo en Python. Eso sí, esta tecnología no funciona en tiempo real, y según ArsTechnica, se tomó un buen tiempo para finalizarlo en un procesador Intel de gama media. Al final, el resultado fue "mucho mejor que servicios de transcripción impulsados por la inteligencia artificial que hayamos probado en el pasado".

Pero ojo, que existe una letra pequeña en el código de Whisper. Según sus creadores, es una herramienta que podría usarse también para el mal. Por ejemplo, para identificar interlocutores en una conversación, o incluso para automatizar la vigilancia. No obstante, desde OpenAI esperan que se use para el bien, y permita a desarrolladores el crear herramientas de traducción y transcripción mucho más complejas.

La inteligencia artificial de OpenAI ya puede escribir código a partir de lenguaje natural
Cualquier persona ya puede acceder a GPT-3 de OpenAI, para bien y para mal
La inteligencia artificial de OpenAI ya es capaz de crear imágenes a partir texto


Esta herramienta de inteligencia artificial permite crear y editar videos


Luego de los increíble sistemas de inteligencia artificial de generación de imágenes, llega una herramienta de IA para crear videos.

Estamos viendo enormes avances en inteligencia artificial. Estos sistemas están en auge y muchos han asegurado que nos encontramos en la "carrera espacial por la inteligencia artificial", comparándolo con el progreso tecnológico que se vivió en la década del 60 culminando con el alunizaje en 1969.

Muchas compañías se encuentran desarrollando y explorando la inteligencia artificial ya que podría cambiar radicalmente la sociedad. Desde nuestros hábitos y rutinas hasta nuestro trabajo y educación. Empresas de tecnología como OpenAI, Google y Meta están trabajando en el desarrollo de programas de inteligencia artificial de generación de imágenes.

Estas herramientas de inteligencia artificial crean variedades de imágenes a partir de texto que el usuario introduce. Por ejemplo, si en el sistema de inteligencia artificial llamada DALL.E 2, desarrollado por OpenAI escribimos "Un astronauta jugando baloncesto con gatos en el espacio en un estilo minimalista", la IA nos devolverá esta y muchas más variaciones del mismo texto:

DALL.E 2

Inteligencia Artificial de generación de videos

En esta explosión de la inteligencia artificial ha aparecido un nuevo sistema que permite crear y editar videos a partir de texto. La herramienta se llama Runway y es un sistema de inteligencia artificial multimodal que habilita nuevos tipos de herramientas de creatividad.

"Las redes neuronales profundas para la síntesis de imágenes y videos son cada vez más precisas, realistas y controlables. En un par de años, hemos pasado de imágenes borrosas de baja resolución a imágenes altamente realistas y estéticas que permiten el auge de los medios sintéticos", explican desde


El nuevo avance en inteligencia artificial: DALL.E 2 expande imágenes más allá de sus bordes

Inteligencia Artificial: el lado oscuro de esta tecnología

Estos sistemas de inteligencia artificial cambiarán para siempre las herramientas del arte, la creatividad y el diseño. Con esta poderosa herramienta se pueden crear y editar videos en cuestión de segundos simplemente escribiendo lo que quieres que aparezca. También se puede eliminar instantáneamente el fondo de cualquier video y objetos con solo unos pocos clics.

El programa se encuentra en su versión Beta y puedes probarlos de manera gratuita entrando en el sitio web de Runway.

Ya hay modelos de IA que ejecutan tareas que ningún programador les ha enseñado, y los científicos advierten sobre su peligro

Algunas de las inteligencias artificiales del planeta ya ejecutan tareas que ningún programador les ha enseñado, y algunos científicos advierten de que el ser humano podría dejar de controlar a las máquinas.

Esto supone un problema real, más aún cuando ya existen compañías que han dejado sus cargos de dirección en manos de robots humanoides controlados por la IA.

Tomar decisiones críticas, velar por el crecimiento de una compañía, mejorar la eficiencia operativa de los empleados... Son las labores típicas de un CEO, aunque en el caso de la compañía NetDragon Websoft, el director ejecutivo es un robot.

Tang Yu es un robot humanoide impulsado por inteligencia artificial y es el primero en convertirse en CEO de una compañía, en este caso una empresa china centrada en el desarrollo de juegos multijugador y aplicaciones móviles.

En NetDragon Websoft, Tang Yu tiene el control total de la compañía y, como es evidente, la preocupación es palpable. Yu controla la empresa, aunque nadie sabe quién le controla a él.

Lo cierto es que el mundo se parece cada vez más una ficción distópica de los años 80, con una IA que puede predecir crímenes antes de que ocurran, otras que crean obras de arte y algunas que acercan a la humanidad a un escenario catastrófico.

En este contexto, los científicos han avisado ya del peligro que puede suponer dejar el futuro del planeta en manos de una IA. Esto se debe a que un algoritmo de aprendizaje automático no puede ser controlado de forma totalmente precisa.

Uno de los mejores ejemplos para comprender cómo funcionan las mentes artificiales es el del robot humanoide de Google, el modelo GPT-3. A este se le ordenan comandos muy directos, como ayudar a una bebida derramada.

La IA del robot, inmediatamente, relaciona una bebida derramada con la limpieza y busca una solución: "Podría intentar usar una aspiradora". Ningún humano usaría una aspiradora para limpiar un líquido.

Los científicos responsables de su desarrollo decidieron ofrecerle comandos textuales de alto nivel y su IA comprendió cada uno de ellos con un éxito del 84%, una cifra sobrecogedora que evidencia la complejidad del entendimiento artificial.

Así es Optimus, el robot humanoide de Tesla presentado por Elon Musk

Cada vez con mayor frecuencia, el ser humano es incapaz de diferenciar máquinas, como ya planteó Alan Turing en su problema de la parada o problema de la detención, el mítico test de preguntas a una IA.

Un grupo de investigadores del Instituto Max-Planck para el Desarrollo Humano (Alemania) decidió estudiar a fondo estas premisas y concluyó que algunas máquinas realizan ya ciertas tareas que ningún programador les ha enseñado.

Según explicó Iyad Rahwan, uno de los autores del estudio, lo mejor sería no crear una IA que no fuera totalmente necesaria, ya que el peligro de que se descontrole supone un futuro incierto, más aún cuando ya existe algún robot que hace sus labores como CEO.

Así, lo mejor sería poder controlar cualquier máquina (algo que ya se ha desmotrado casi imposible), para no tener que recurrer al ludismo forzado en un futuro no muy lejano.

Otros artículos interesantes:

Una Inteligencia Artificial no puede patentar inventos: es la conclusión de los tribunales de EEUU

Esta startup está consiguiendo que la inteligencia artificial tenga 'sentido común' como los humanos

Un nuevo modelo de inteligencia artificial detecta el párkinson a partir de los patrones de respiración

Esta web para colorear fotografías demuestra que la IA juega en otro nivel. Y funciona con un par de clics



La IA está llegando a nuestros ordenadores todos los días. En este caso sirve para ayudar a todos los que lo necesiten colorear las fotografías con solo dar a un botón. Hemos encontrado Palette, una web sencilla para dar color a las antiguas fotografías en blanco y negro.

Colorear una fotografía en blanco y negro se ha puesto de moda. Ya no es tan complicado como antes, ahora solo es necesario usar los nuevos filtros neuronales de Adobe Photoshop o mejor aún, pasarse por la web de Palette, creada por Emil Wallner, un profesional relacionado con Google Arts.

Lo más llamativo de esta aplicación es la calidad de los resultados y la facilidad de uso, no hace falta tener conocimiento alguno de edición a la hora de iluminar una fotografía en blanco y negro. Solo tener claro lo que necesitamos, acceso a un ordenador y una conexión a internet.

Cómo utilizar Palette

El primer paso, y quizás el más complicado, es encontrar Palette. El nombre es muy popular, y si pones 'palette' en el buscador, te encontrarás con todo tipo de tintes para el cabello, aplicaciones para armonías del color y mucho más. Es importante poner la extensión .fm (dominio de los Estados Federados de Micronesia) para encontrar exactamente lo que buscamos.


Una vez dentro de la página, no tenemos que dar muchas vueltas para conseguir un buen resultado.

En primer lugar, hay que elegir la fotografía con la que queremos trabajar. Por ningún lado te señala las características y tamaño de los archivos, pero he podido trabajar sin problemas con un jpeg de 24 MP. No es compatible con los archivos TIFF y siempre te devuelve un archivo .png de 1920 píxeles el lado mayor. Aquí tenemos probablemente la mayor limitación de la página (y la puerta abierta para una versión de pago).

Una vez abierta la fotografía, la página procesa el archivo original y posteriormente le aplica un primer ajuste de color que llama 'Base palette'. Si te gusta el resultado, solo tienes que colocarte encima de la imagen y dar al botón Save.

Pero sería un error quedarse ahí. La página ofrece muchas más posibilidades, y son las que hacen que destaque por encima de todas las demás opciones que podemos encontrar en el mercado. Una vez coloreada la imagen, tenemos más posibilidades, más filtros, si no nos gusta la primera opción.

Lo que ocurre cuando le pones una característica como 'sunset'

Lo que marca realmente la diferencia es que podemos escribir cómo queremos el color y la iluminación para lograr el efecto deseado, como si fuera una especie de Dall-E del color. Si tú quieres que la fotografía tenga los colores del atardecer, solo tienes que escribir en inglés -después de dar al icono del lápiz, sunset (puesta de sol) y hacer clic en el botón Colorize.

Y ya está, como veis, es tremendamente sencillo de utilizar. La única pega es el formato en el que te devuelve la copia del original. Pero estamos ante una tecnología que terminará implementada en algún famoso programa o directamente integrada en el mismo navegador de Google.

Inteligencia artificial vs. programadores

La industria tecnológica encara dos carriles paralelos: la creación de nuevos talentos y de herramientas que puedan agilizar y dar velocidad al desarrollo


Anualmente, las grandes empresas analistas de tecnología, como Gartner, Forrester, IDC, entre otras; emiten sus reportes de tendencias tecnológicas con información clave sobre los temas a tener en cuenta para los años siguientes. Me atrevo a decir que la mayoría, sino todas, incluyen entre los más importantes a la programación asistida por computadora.

Con diferentes nombres, todas muestran que, ante la imposibilidad de hacer frente y ganar la carrera por el talento tecnológico, se multiplican los esfuerzos por crear y adoptar herramientas que, de alguna manera, agilice el trabajo de desarrollo para producir la cantidad de líneas de código suficientes para satisfacer las necesidades de digitalización y automatización que demandan todas las industrias.

Al compás de nuevos modelos de negocio digitales, los equipos de desarrollo enfrentan una presión continua para ofrecer rápidamente nuevas capacidades y crear experiencias más dinámicas y proactivas que nunca. En su mayor parte, los desarrolladores aceptan el desafío.

Por estas razones, surgen herramientas que asisten al desarrollo, que van desde arquitecturas basadas en eventos, pasando por aplicaciones componibles o No/Low Code hasta bots de Inteligencia Artificial que, según las necesidades, entregan código adaptado al requisito puntual del desarrollador.

Cada día es más común escuchar hablar de esto entre programadores, desarrolladores y analistas de sistemas que intentan hacer el catch up entre la demanda y potencial máximo de producción y generación de líneas de código que tienen los programadores.

Ese potencial máximo está limitado por la cantidad de talento humano disponible. Lo que coloca a la industria tecnológica en el desafío de encarar dos carriles paralelos: la creación de nuevos talentos y la creación de herramientas que puedan agilizar y dar velocidad al desarrollo.

Sobre la primera, desde hace tiempo ya la industria del desarrollo del software viene hablando y creando iniciativas para captar nuevos talentos y formarlos para atender la demanda. En cuanto al desarrollo de herramientas que asistan a la programación, existen actores importantes de la industria con avances notables.

En mi humilde opinión, ambos carriles de esta autopista se dirigen hacia el mismo destino y no compiten entre sí. Tienen una finalidad común, agilidad y velocidad para atender la demanda. Es factible que alguno muestre más velocidad o avance que el otro, o que pareciera que uno puede reemplazar al otro.

Como en casi todas las profesiones de hoy en día, la Inteligencia Artificial puede ser vista como una amenaza para la inteligencia humana. Es probable que, en el futuro, el desarrollo de la Inteligencia Artificial nos pueda permitir pedirle una cierta funcionalidad o código para nuestra necesidad de negocio, y que nos responda eficientemente con un desarrollo adecuado.

Sin embargo, es poco probable que la Inteligencia Artificial per se pueda tener el conocimiento del negocio adecuado para decidir qué funcionalidad es adecuada para la empresa, sus procesos y su diferenciación competitiva. Lo que es seguro es que la inteligencia humana por sí sola está limitada a la capacidad del programador para escribir líneas de código, y que cualquier herramienta que pueda asistirlos en la generación de nuevo software será bienvenida y bien aprovechada.

También es cierto que los requerimientos de usuarios se hacen más complejos en la medida que pasa el tiempo, y ellos se acostumbran a los nuevos desarrollos tecnológicos. Entender este tipo de complejidad, donde se entremezclan experiencia de usuario, necesidades de negocio y nuevas tecnologías emergentes; es sumamente complejo para una inteligencia artificial como la entendemos hoy.

Definitivamente, no creo que en el futuro los programadores sean reemplazados por una inteligencia artificial. O que se pierdan puestos de trabajo. Muy por el contrario, creo que se perfeccionarán o reinventarán. Como viene sucediendo con otras profesiones, la inteligencia humana se verá aumentada con el uso de herramientas de inteligencia artificial que la asista.

La vida profesional del programador, desarrollador o analista será reformulada, como ya viene siéndolo de alguna manera, hacia un profesional con mayor capacidad de tomar decisiones, apoyado en herramientas que ejecutarán las actividades repetitivas o que creen menor valor a los procesos del negocio.

Es más, confío en que el surgimiento y adopción de estas nuevas herramientas y tecnologías, que facilitan el desarrollo del software, se permitirá que especialistas y profesionales de todas las industrias, incluso las más distantes de la tecnología, como médicos, abogados o educadores; podrán acercarse mucho más fácilmente al universo infinito que implica digitalizar y automatizar sus actividades del día a día.

Estudio: una Inteligencia Artificial superinteligente sería imposible de controlar para los humanos en un futuro no tan lejano

La Inteligencia Artificial se podría estar saliendo de las manos de la humanidad.

La venganza de las máquinas en Los Simpson y el violento accionar de los Centinela en X-Men: Días del Futuro Pasado. Son dos ejemplos en los que la ficción nos muestra como la era digital se tornó en contra de la humanidad y la llevó casi por completo hacia la extinción.

Un estudio realizado por científicos especializados en tecnología digital sostiene que, aunque no nos destruiría, una Inteligencia Artificial superinteligente sería imposible de controlar para los humanos.

Inteligencia artificial “probablemente” destruirá a los humanos, revela estudio de Oxford

A la Inteligencia Artificial la vemos replicada con mayor frecuencia cada día. Los métodos computarizados que realizan trabajos a través del aprendizaje automáticos son los mecanismos para los que el futuro nos está preparando.

Encontrar la cura de una enfermedad, desarrollar un software para la entrega de un producto, instalar un robot que te pueda tomar y entregar una orden en un restaurante y hasta pintar una obra de arte son parte de las características que están siendo desarrolladas por la Inteligencia Artificial.


Inteligencia Artificial superinteligente

El problema que encentran los expertos que desarrollaron este estudio, es que la Inteligencia Artificial trabaja con aprendizaje automático para encontrar una solución que a la mente humana le costaría más tiempo llegar.

Entonces, este mecanismo digital se está moviendo más rápido y el cualquier momento nos podría dejar rezagados hasta el punto de que sea incontrolable para la humanidad.

Dice parte del estudio: “Una superinteligencia tiene múltiples facetas y, por lo tanto, es potencialmente capaz de movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables”.

Science Alert reseña que una posibilidad que se plantean los investigadores es integrar a una Inteligencia Artificial un algoritmo que evite a una máquina hacerle daño a un humano o al planeta.

Sin embargo, desarrollar este nivel de matemáticas por ahora es imposible. Además, sería muy complejo hacerle entender esto a un robot y limitaría sus funciones.

https://twitter.com/i/status/1571586162329882624

 Hemos estado en el mayor evento mundial sobre inteligencia artificial. Es como volver a los inicios de la digitalización


Riad quiere ser la capital mundial de la inteligencia artificial. Además de construir una ciudad de 120 km de largo, una luna artificial e invertir un billón de dólares en atraer turistas, el gobierno saudí se ha fijado en la inteligencia artificial como una de las tecnologías que puede marcar el futuro. En medio de este explosivo cóctel surge el Global AI Summit, el mayor evento sobre IA que ha reunido durante tres días a los principales expertos del mundo. Hemos estado allí y aquí os contamos qué se ha discutido.

El Global AI Summit ya es referente en solo dos años. Ha sido la segunda edición, pero ya ha reunido más de 200 ponentes de 90 países y 10.000 participantes. El Global AI Summit no es el único congreso mundial sobre IA, tenemos el WAICF de Cannes, el AI Summit de Londres o la MLconf de San Francisco, pero sí tiene todos los ingredientes para convertirse en la gran referencia del sector por su plantel de conferenciantes, la organización y la fuerte inversión que tiene detrás.

Tuvimos la oportunidad de escuchar al profesor Jürgen Schmidhuber, codirector del Instituto Dalle Molle de Investigación en Inteligencia Artificial de Suiza y a menudo nombrado como "el padre de la IA moderna"; a Sebastian Thrun, profesor en la Universidad de Stanford, y fundador de Google X y Udacity; Qi Tian, director de IA de Huawei; Scott Crowder, VP de IBM Quantum; Corinna Cortes, directora de Google Research o a Anima Anandkumar, directora de Machine Learning en Nvidia, entre muchos otros.

La IA ya está aquí y empieza a mover cantidades ingentes de dinero. Sobre tecnología de consumo tenemos grandes eventos como el CES o el Mobile World Congress, pero no ha sido hasta ahora cuando estamos viendo que la inteligencia artificial es el tema central de congresos de este tamaño.

Gracias a la visibilidad obtenida por herramientas artísticas como DALL-E o Stable Diffusion, la IA está en boca de todos. Sin embargo, en un congreso especializado la conversación va más allá. Todos los expertos presuponen que las posibilidades que vemos ahora de la IA se van a quedar cortas con lo que tendremos el año que viene, no ya decir de aquí a tres o cuatro años. Todos los sectores se van a ver afectados, desde la energía hasta la salud, pasando por el mundo de los videojuegos o el transporte de las grandes ciudades.

En este Global AI Summit 2022 hemos escuchado cifras de inversión en inteligencia artificial que empiezan a ser considerables. Según la firma KPMG, la inversión mundial alcanzará en 2025 los 150.000 millones de dólares anuales. Por poner en contexto la cifra, la Unión Europea actualmente invierte unos 14.000 millones al año, aunque ya ha anunciado que pretende alcanzar los 20.000 millones de euros. Por parte de Arabia Saudita también se quiere realizar un esfuerzo, siendo el objetivo invertir en IA unos 135.000 millones de dólares hasta 2030.

Si te despistas, te quedas atrás. El ritmo al que avanza la IA es frenético. Y eso se nota en las temáticas de las conferencias. La gran mayoría hablaban de trabajos realizados este mismo verano y muchas de ellas están más enfocadas a plantear debates y dilemas de cara a los próximos años. Casi ningún experto se detiene en los logros de su empresa o de lo que es capaz la IA, porque todos entienden que en poco tiempo estarán desfasados.

Un ejemplo lo tenemos en la industria farmacéutica. Hace unas semanas hablábamos de que la IA de DeepMind ya ha logrado averiguar por sí misma la estructura de todas las proteínas conocidas por la ciencia. Hace dos años nos sorprendíamos de que un medicamento creado por una IA iba a ser utilizado en humanos. La discusión en este Global AI Summit se centra en cómo regular este sector, pero ya dan por hecho que crear medicamentos mediante IA o diagnosticarlos será tan común como el resto. Al igual que en Europa o EEUU existe la Farmacopea o la FDA, la llegada de la IA exigirá la creación de nuevos estándares.

Este discurso ya lo hemos escuchado antes. ¿Cómo la IA afectará al mundo laboral? ¿Cómo evitar que genere más desigualdad? ¿Cómo impactará a las empresas a la hora de organizarse y a sus modelos de negocio? ¿Cómo conseguiremos que el mundo físico y humano siga siendo relevante? Son algunas de las preguntas que han originado distintas charlas en el Global AI Summit. No tienen respuesta directa. Sin embargo tampoco son nuevas. Este tipo de dudas las llevamos escuchando desde hace más de 20 años.

El evento ha sido como volver al pasado. A los tiempos de la digitalización. A cuando la llegada de internet lo iba a cambiar todo. Y efectivamente ha sido así, pero se han necesitado décadas y todavía ahora se discute su relevancia. Escuchar sobre IA es como una segunda fase de la digitalización. Ahora además de comunicarnos a través de las máquinas, dejaremos que nos digan cosas.

El sector de la IA está en esa fase donde todas las compañías quieren apuntarse ya que cada vez son más conscientes del alcance que puede tener. También, como en aquellos días, el debate se centra más en lo que está por llegar, que en lo que ya se ha logrado implementar, que todavía es muy poco.

La ironía del 'For the good of humanity'. Si algo hemos aprendido durante estos años es el enorme impacto que tiene la tecnología en nuestras vidas. Para bien, pero también puede facilitar la desinformación, la expansión de discursos de odio y la pérdida de privacidad. No es casualidad que en un evento de inteligencia artificial se tenga mucho cuidado en intentar desmarcarse de estas consecuencias no deseadas de un potencial mal uso de la IA.

El lema del Global AI Summit 2022 era "IA para el bien de la humanidad". "Debe ser fiable, inclusiva, centrada en el ser humano, transparente, robusta y con responsabilidad. No podemos permitirnos que los algoritmos sean parciales o sexistas. No podemos permitirnos no tener los conjuntos de datos correctos y el contexto adecuado", definía el Dr. Abdullah Alswaha, ministro de Comunicaciones y Tecnologías de la Información de Arabia Saudí.

Lo cierto es que un gran porcentaje de las conferencias estuvieron centradas en los aspectos éticos de la IA, así como en asegurar que los conjuntos de datos son suficiente heterogéneos como para que los resultados no tengan tantos sesgos. Más allá de invertir recursos en mejorar estas bases de datos, la "solución" más extendida es la firma de principios éticos, como los de Google o DeepMind. También tiene los suyos Europa y Arabia Saudita aprovechó la ocasión para firmar unos equivalentes.

Con todo, es inevitable ver en estas promesas un claro intento de limpiar la imagen. Tanto por parte de Arabia Saudita como por parte de las Big Tech. Continuando con las ironías, desde las autoridades saudíes se defendió el alto número de mujeres en el sector tech, por delante de la media del G20 según un estudio independiente. De nada sirve cuando a la hora de la verdad, las conferencias principales estaban representadas solo por hombres.

Una peligrosa herramienta. Es difícil no tener dudas cuando se escucha a un militar hablar sobre inteligencia artificial. Pese a que cada varias frases se asegure que se tendrá en cuenta la protección de los ciudadanos y que se cuenta con un instituto separado que revisa los algoritmos. Mohammed Albassami, director de seguridad pública, describía que el número de visitantes a la Gran Mezquita de La Meca continúa creciendo y la IA puede contribuir a facilitar el trabajo de los responsables de seguridad.

La IA facilitará el recuento de multitudes, analizar la cantidad de personas que accede a cada zona e incluso detectar acciones concretas como hurtos. Son usos de la IA que en principio entran dentro de lo esperado, pero también pueden entenderse como la implementación de un enorme sistema de videovigilancia. En ningún momento el conferenciante habló de reconocimiento facial, como si este fuera un concepto tabú.

Lamentablemente es complicado confiar en la buena implementación de un sistema cuando se tienen tantos ejemplos de potenciales malos usos. El propio gobierno de Arabia Saudí es un ejemplo de los peligros inmediatos de la tecnología. The Guardian informaba en 2020 del posible rastreo de millones de ciudadanos a través de datos de las operadoras. Con la llegada de la IA ocurre como con la llegada de internet; no necesariamente debe suponer una pérdida de privacidad, pero es mucho más fácil que los malos usos impacten a más gente en menos tiempo.

El nivel técnico que exige la IA es altísimo. 'Neural networks', 'Anomaly Detection', 'Support Vector Machine', 'inconsistency', 'Content-Based Filtering', 'Unsupervised Learning', 'Natural language processing', 'Overfitting', 'KNN Algorithms', 'Long short-term memory'... la cantidad de conceptos técnicos relacionados con la inteligencia artificial es enorme. Además de pedir disculpas por los numerosos anglicismos, comentar que seguir determinadas conferencias es difícil sin cierto conocimiento técnico.

Además de supercomputadoras con una capacidad de cálculo enorme, el desarrollo de la inteligencia artificial requiere el uso de estadística y matemática avanzada. Eso se ha reflejado en el Global AI Summit, donde muchas conferencias tenían un nivel técnico mucho más alto de lo habitual en otro tipo de congresos. Y es que hay que remarcar que el Global AI Summit no ha sido un congreso orientado específicamente a los profesionales del sector, sino con una vertiente más generalista.

Aunque la mitad de las cosas sobran. Parece que sea el precio a pagar. No hay gran congreso que se libre de añadir cosas y proyectos vistosos pero carentes de interés real. Nos pasó con el MWC 2022 y el metaverso y en el Global AI Summit también hemos tenido una gran cantidad de stands llamativos pero sin que nos aporten nada. Hablamos por ejemplo de brazos robóticos que nos preparan el café o de avatares enlazados a chatbots que responden nuestras preguntas.

Cuando vemos estas cosas aparentemente futuristas no podemos dejar de pensar lo alejados que estamos todavía de que lleguen a nuestro día a día. Nos recuerda de nuevo a la fiebre de lo digital, donde todo necesitaba tener su aplicación propia o donde hay que construir un metaverso para cada empresa. Lo cierto es que no hace falta. El potencial de internet y de la IA en este caso es enorme, pero dudamos que haya que forzar para meterla en cada esquina. Desgraciadamente es muy posible que a medida que el boom de la IA crezca, también haya empresas y organizaciones aleatorias que se quieran marcar el tanto.

Las promesas de la revolución de la IA no tienen fin. El discurso de expertos como Jürgen Schmidhuber parece sacado de la ciencia ficción, pero lo cierto es que el pionero de la IA, el aprendizaje profundo y las redes neuronales plantea sus hipótesis muy en serio. Es quizás el ejemplo más extremo y excéntrico, pero es representativo de cómo algunos científicos ven en la IA una potencia revolución que cambiará el mundo todavía más de lo que ya lo ha hecho internet.

No es el único ejemplo de cómo la IA pretende cambiarlo todo. Además de su impacto en el mundo del arte y los derechos de autor, la IA promete por ejemplo aumentar la salud y la longevidad de la raza humana. Es el caso de Alex Zhavoronkov, fundador de Insilico Medicine, compañía de desarrollo de medicamentos mediante IA o de Calico, el proyecto de Google que promete que podremos vivir hasta los 200 años.

El miedo a lo desconocido es real. En los días que estuve en el Global AI Summit escuché innumerables veces la historia del ingeniero de Google que creía que la IA tenía conciencia. Y no me pareció casualidad. Incluso dentro de la industria, hay una preocupación creciente sobre la auténtica capacidad de la IA para tomar decisiones y reflexionar.

Tras escuchar sobre la cantidad de algoritmos que hay y cómo funcionan muchas técnicas de inteligencia artificial, personalmente debo decir que no creo que LaMDA sea nada en especial. En parte creo que se ha mitificado la IA por no comprender cómo funcionan. De hecho, las respuestas parecen todavía muy sencillas. El evento ya anticipa una comprensión mucho mayor del lenguaje y las relaciones. No sería de extrañar que en poco tiempo podamos establecer niveles de originalidad, optimismo, alegría y distintos tipos de emociones. Si un algoritmo puede identificar una emoción o un tipo de personalidad, le será muy fácil replicarlo. Sea en texto, en imágenes, en vídeo o como avatares virtuales dentro del metaverso.

Si nos vamos al futuro, la preocupación sobre la IA ha derivado en que incluso investigadores de Oxford y Google Deepmind hayan alertado sobre una potencial destrucción de la humanidad. En esta dirección, durante el Global AI Summit se llegó a preguntar sobre la necesidad de establecer unas leyes de Asimov para la IA, aunque la postura de distintos expertos fue que la IA sigue siendo una herramienta y responde para lo que fue programada. Con todo, es un debate que permanece abierto y parece preocupar a más personas de las que abiertamente se admite.

Hace falta regulación y cada día que pase se llegará tarde. Han pasado más de 30 años desde la llegada de internet y todavía hay regulación pendiente. Con la IA todos son conscientes de que los errores con la digitalización no pueden volver a repetirse y todos abogan abiertamente por regular la IA. Sin bagajes. Incluso aquellos más innovadores y que apuestan por no poner ningún tipo de trabas al desarrollo de la IA reconocen la necesidad de establecer un marco legal tarde o temprano. Dependerá de cada país, pero la llegada de una tecnología así requiere una actualización de las leyes.

La Unión Europea es el gran referente en regulación sobre inteligencia artificial. Aunque incluso aquí todavía nos encontramos en una fase inicial. La sensación es que ya se está llegando tarde y de que los reguladores no son conscientes de lo mucho que puede cambiar el mundo esta tecnología. Desde la creación de medicamentos hasta una sacudida tremenda al concepto de derechos de autor. Los políticos hablan de parches a problemas que se están encontrando ahora, pero la IA ya plantea dilemas que ni siquiera están contemplados en las más avanzadas legislaciones.

Pongamos el caso de España, donde esta semana se discute la ubicación de la nueva Agencia sobre Inteligencia Artificial. Es un movimiento que se repite en muchos países, pero hace falta un enfoque más global. Algo similar a lo que Estonia hizo con la digitalización. Todavía no hay ningún estado que haya decidido colocar a la inteligencia artificial en el centro de su estrategia como nación.

Las cartas están sobre la mesa. La IA avanza a una velocidad de vértigo. Como así lo hizo internet. Si en su día vimos la llegada de Google, las redes sociales, el streaming de vídeo en directo... con la IA ya tenemos generación de imágenes, chatbots difíciles de distinguir de humanos y deepfakes ultra realistas. Puede ser solo el principio. No sabemos cuánto tardarán en llegar, pero no es difícil imaginar un videojuego donde el jugador pueda pedir la creación de nuevas zonas y donde los diálogos con los NPCs se generen en directo. La IA puede multiplicar el nivel de complejidad que tenemos a unos niveles sorprendentes.

Pero otro mensaje que nos ha dejado el Global AI Summit es que las cartas ya están encima de la mesa. Con nuevos superordenadores se ampliará la capacidad de cálculo y las IAs serán más capaces, pero la idea de fondo ya la tenemos. En esta década se han presentado nuevos algoritmos, pero el concepto de inteligencia artificial como tal no ha cambiado. Internet ha evolucionado, pero sigue basado en IPs y la WWW. Visitar el congreso me ha recordado a lo que significaron los años 90. Estamos ante las puertas de una tecnología que promete cambiarlo todo.

Una obra de arte hecha por inteligencia artificial ganó un premio y generó indignación entre los participantes

La imagen retrata una ópera espacial. Sin embargo, no fue hecha por un humano sino que es obra de un sistema computarizado.

Estamos viviendo un momento en donde el concepto que se tenía de arte se está trastocando. El enorme avance de la tecnología ya penetró en la esfera del arte y hoy estamos ante una nueva vanguardia artística que combina estos dos elementos: arte y tecnología.

Los NFT, la realidad virtual y la inteligencia artificial están abrazando el arte. Ambos pioneros y disruptivos, se encargan de abrir nuevos mundos. Sin embargo esto genera indignación en muchos artistas y se abre un nuevo debate.

Muchos argumentan que la inteligencia artificial implica la muerte del arte ya que un sistema computarizado puede crear distintas variaciones pictóricas a partir de una simple descripción de lo que el usuario quiere que dibuje.

Una Inteligencia Artificial ganó un concurso de arte en Estados Unidos

En Estados Unidos se celebró la Feria Estatal de Colorado y un participante llamado Jason Allen se presentó y ganó el primer premio por un collage digital generado por inteligencia artificial titulado Théâtre D'opéra Spatial.

Esto generó indignación entre el resto de los participantes que se presentaron al concurso con obras de arte hechas por sus manos. La noticias abre un interesante debate sobre qué es lo que constituye al arte en estos tiempos y dispara un montón de preguntas que aún no parecen tener respuestas.

El nuevo avance en inteligencia artificial: DALL.E 2 expande imágenes más allá de sus bordes

Ante una nueva vanguardia artística: cómo la tecnología cambió el arte

"Space opera theatre", obra ganadora del concurso hecha por la IA.

La imagen digital fue hecha en Midjourney, un programa de inteligencia artificial que convierte texto en imágenes personalizadas. Es decir, los usuarios ingresan en le programa una serie de palabras y la inteligencia artificial solo tarda unos segundos en interpretarlas y devolver una imagen.

Jason Allen, ganador del concurso, no quiso revelar el texto que introdujo en el programa, aunque el título de la obra "Space Opera Theatre" nos da una idea.

En entrevista con The New York Times, el participante afirmó que desde un principio inscribió la obra como una creación suya y especificó que había usado Midjourney, por lo que no había engañado a nadie. Aseguró que no rompió ninguna regla y no se va a disculpar por haber ganado.

Conjeturas, hipótesis, teorías.

La especulación o conjetura, es una forma filosófica de pensar para ganar conocimiento yendo más allá de la experiencia o práctica tradicion...