domingo, 29 de diciembre de 2024

Cómo leer notas antiguas en Policromía de Ideas

Bien, queridos amigos, les informo que el motivo de esta nota es atender a la inquietud que me han hecho llegar muchos de ustedes acerca de que no saben cómo recuperar notas de tiempo atrás. Por poner un ejemplo, muchos me han comentado que han querido leer la nota De conductores y conducidos, que yo suelo recomendar en otras notas, y no han sabido cómo llegar a ella.

Así pues, he decidido dedicar esta nota a un tutorial sobre cómo recuperar notas del pasado, de modo que el Universo de Policromía de Ideas quede a su completa disposición de ustedes.

Así pues: ¡Vamos a ello!

Lo primero que necesitamos es una ranura de búsqueda, es decir, una ranura blanca donde escribamos el título de la nota que deseamos para que el sistema la busque y nos la traiga. Pero, puede suceder que la primera pantalla que veamos en nuestro teléfono (si queremos entrar al blog por él) no contenga ninguna ranura blanca, como muestra la figura 1.

Fig. 1

En ese caso, apoyamos un dedo, el índice, por ejemplo, sobre la pantalla y lo deslizamos hacia arriba. Veremos aparecer textos y mensajes nuevos, hasta que veamos el texto Ver versión web, que se muestra en la figura 2.

Fig. 2

Hacemos tap con el dedo sobre él y veremos aparecer lo que muestra la figura 3.

Fig. 3

¡Y allí está! Arriba a la derecha vemos la ranura blanca que estábamos buscando, señalada con la flecha amarilla.

¡Pero, es muy pequeña, Martín! ¡Ni se va a ver lo que escribamos!

¡Calma, calma! Se puede agrandar. Simplemente, apoyamos el índice y el pulgar sobre la pantalla; el primero por encima de la ranura y el segundo por debajo. Y ahora deslizamos el índice hacia arriba y el pulgar hacia abajo y, ¡sorpresa! La ranura se agranda como muestra la figura 4.

Fig. 4

¿Y allí escribimos De conductores y conducidos, Martín?

Pues, sí. Si esa es la nota que queremos leer. Para ello, hacemos tap con el dedo en la ranura y nos aparece un teclado para que escribamos el título que queremos. 

Pero, tenemos a disposición un uso más atractivo: Podemos escribir en la ranura el título Índice (siempre atendiendo a las mayúsculas y a las tildes) e ir a parar a una nota que tiene los títulos de todas las notas anteriores a ella. Índice es del 12 de mayo de 2024 y, como digo, tiene los títulos de todas las notas anteriores a ella, de modo que ustedes pueden recorrerla y seleccionar notas anteriores por su título, por ejemplo, ¿Qué ha pintado la selección natural en nuestro lienzo genético?

Ya con el título de la nota que quieren leer, vuelven a la ranura y lo escriben, o lo copian, y hacen tap sobre el botón Buscar para ir a ella.

¡Sencillo! ¿Verdad?

Y, cada tanto iré publicando nuevos índices que contengan las notas que no figuran en el primero.

Por último, les digo que, todo esto es muy bonito pero, hay un camino más corto. Todas las notas del blog, por ejemplo la última publicada, tienen arriba a la derecha la famosa ranura blanca. De modo, queridos amigos, que no hay excusa para no leer De conductores y conducidos o cualquier otra nota del blog.

Bien, espero que este pequeño tutorial sea de utilidad para que ustedes se embarquen en una maravillosa odisea por las notas de Policromía de Ideas.

¡Hasta la próxima!


domingo, 22 de diciembre de 2024

Minicurso sobre la IA 6

 

Sexta entrega: ¿La IA necesita reglas más estrictas?

 Hola y bienvenidos a la edición final de Introducción a la IA. ¡Hemos cubierto mucho terreno en las últimas semanas! Esperamos que sientan que saben más sobre cómo usar la IA y cómo pensar sobre qué papel deberían desempeñar estos sistemas en nuestras vidas. Ahora, hablemos sobre las regulaciones de la IA.

Si no se implementan adecuadamente,

las herramientas de IA pueden causar daños reales.

Los sistemas de reconocimiento facial han clasificado a los negros como gorilas y se está utilizando software deepfake para hacer vídeos pornográficos de mujeres sin su consentimiento. Los sistemas basados ​​en inteligencia artificial también desempeñan cada vez más un papel de guardianes en las decisiones de contratación. 

A las empresas tecnológicas les encanta hablar de su compromiso con la ética de la IA , pero los equipos responsables de IA suelen ser los primeros en sufrir recortes durante los despidos, y las empresas tecnológicas pueden decidir cambiar sus políticas éticas en cualquier momento. OpenAI, por ejemplo, comenzó como un laboratorio de investigación “abierto” antes de cerrar el acceso público a sus investigaciones para proteger su ventaja competitiva.

La regulación es una forma de determinar

el impacto de una nueva tecnología en el mundo.

Algunos críticos dicen que puede sofocar la innovación y la creatividad, pero otros sostienen que, si se aplican correctamente, las regulaciones influyen en la forma en que se desarrollan y se implementan las tecnologías para garantizar que satisfagan las necesidades de todos.  

En la actualidad, la regulación de la IA es un proceso en curso en todo el mundo. Hay dos enfoques principales: regular el desarrollo de la IA y regular cómo se utiliza.

La UE

La Unión Europea está preparada para convertirse en la policía de la IA del mundo con la Ley de IA, que establece normas vinculantes sobre transparencia y ética. La Ley de IA exige a las empresas tecnológicas que notifiquen a las personas cuando interactúan con un chatbot, un software que utiliza biometría o sistemas de reconocimiento de emociones. También exigirá a las empresas que etiqueten los deepfakes y el contenido generado por IA, y que diseñen sistemas que puedan detectar o revelar los medios generados por IA. Este es un paso más allá de los compromisos voluntarios que las principales empresas de IA han asumido con la Casa Blanca de simplemente desarrollar herramientas de procedencia de IA , como las marcas de agua .

Según nuestros informes, parece que ni los reguladores ni las empresas tecnológicas están realmente contentos con la Ley de IA , pero muchos la ven como un compromiso necesario. Y en cierto sentido, la mejor regulación de la IA es aquella que se puede promulgar en lugar de quedar atrapada en el purgatorio legislativo. Así que es un comienzo.

Estados Unidos


En 2023, el presidente Joe Biden emitió una orden ejecutiva sobre la IA que exigía más transparencia y nuevos estándares. La orden exige que los desarrolladores compartan los resultados de las pruebas de seguridad de los nuevos modelos de IA con el gobierno de Estados Unidos si las pruebas muestran que la tecnología podría representar un riesgo para la seguridad nacional. 

También ordena al Departamento de Comercio que desarrolle una guía para etiquetar el contenido generado por IA. Las empresas de IA utilizarán esa guía para crear herramientas de etiquetado y marca de agua que la Casa Blanca espera que adopten las agencias federales. 

Si bien la orden ejecutiva de Biden va más allá de los intentos anteriores del gobierno estadounidense de regular la IA, pone mucho más énfasis en establecer mejores prácticas y estándares que en cómo, o incluso si, se aplicarán esas nuevas directivas.

Biden también creó el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos, que será responsable de implementar la mayoría de las políticas creadas en la orden ejecutiva. La Ley de Inteligencia Artificial también exige que la UE establezca una oficina como esta, pero en este momento ambas oficinas carecen de la financiación y la seriedad necesarias para ser ejecutoras significativas. 

Mientras tanto, no está claro qué proyectos de ley sobre IA podrían ganar terreno en el Congreso estadounidense. Parece probable que cualquier legislación significativa sobre IA clasifique los tipos y usos de la IA según el riesgo que plantean, un marco similar a la Ley de IA de la UE. Pero 2024 es un año electoral en Estados Unidos y el enfoque del gobierno federal respecto de la regulación de la IA seguramente estará determinado por el próximo presidente.

Porcelana


China ha adoptado un enfoque diferente para regular la IA. En lugar de regular la IA en su conjunto, el país publica leyes individuales cada vez que un nuevo producto de IA adquiere relevancia. Ahora China tiene un conjunto de normas para los servicios de recomendación algorítmica (aplicaciones y motores de búsqueda como TikTok), otro para los deepfakes y otro más para la IA generativa.

Este enfoque permite a Pekín reaccionar rápidamente a los riesgos (tanto para los usuarios como para el gobierno) que surgen de los avances tecnológicos, pero también está profundamente fragmentado e impide una estrategia a más largo plazo. China está trabajando en una ley integral de inteligencia artificial, pero podría pasar un tiempo antes de que esté lista.

África

Es probable que la Unión Africana publique una estrategia de IA para el continente a principios de 2025. La UA planea establecer políticas que cada país pueda replicar para competir en IA y proteger a los consumidores africanos de las empresas tecnológicas occidentales, dice Melody Musoni, funcionaria de políticas del Centro Europeo para la Gestión de Políticas de Desarrollo.

Algunos países, entre ellos Ruanda, Nigeria y Sudáfrica, ya han elaborado estrategias nacionales de IA y están trabajando para desarrollar programas educativos, aumentar la potencia informática disponible y crear políticas favorables a la industria para apoyar a las empresas de IA.

Si deseas profundizar en cómo los países regulan la IA, comienza con estas historias:

·        El esfuerzo de África para regular la IA empieza ahora

·        Las empresas de inteligencia artificial prometieron autorregularse hace un año. ¿Qué ha cambiado?

·        La Ley de Inteligencia Artificial ya está aprobada. Esto es lo que cambiará (y lo que no)

·        Por qué el gobierno chino está librando a la IA de duras regulaciones, por ahora

·        ¿Cómo deberíamos regular la IA ?


 

¡Gracias por completar Introducción a la IA!

Con suerte, te sentirás más capacitado para usar y comprender la IA. Aquí, en MIT Technology Review , cubriremos las formas grandes y pequeñas en que esta tecnología tendrá un impacto en nosotros. Puedes suscribirte a The Algorithm , un boletín semanal que desmitifica la IA. O puedes suscribirte para AHORRAR un 50 % en una suscripción digital anual a MIT Technology Review para acceder a nuestros conocimientos de expertos sobre  IA, cambio climático, biotecnología y más.

Créditos

Redactado y recopilado por: Abby Ivory-Ganja, editora sénior de participación de la audiencia

Basado en el trabajo original de: Will Douglas Heaven, editor sénior de IA; Melissa Heikkilä, reportera sénior de IA; David Rotman, editor general; Rhiannon Williams, reportera de noticias; Karen Hao, Tate Ryan-Mosley, ex reportera sénior; ex editor sénior de IA; Zeyi Yang, ex reportera de China

Diseño: Vichhika Tep, diseñadora de marca digital

Ilustración: Stephanie Arnett, editora de imágenes digitales

Agradecimientos especiales: Hal Abelson, profesor de informática e ingeniería en MIT CSAIL

 

domingo, 15 de diciembre de 2024

Minicurso sobre la IA 5

 Bien, queridos amigos, estamos llegando al final (son seis entregas) de este curso sobre la IA generado por el Massachusetts Institute of Technology que espero les haya sido de utilidad.

Los dejo, pues, con esta:

Quinta entrega: Trabajando con IA

 ¡Hola de nuevo! El tema de esta semana es importante: la IA y la fuerza laboral. Hace tiempo que escuchamos que la IA nos está robando nuestros trabajos. Y con el auge de la IA generativa, los trabajadores administrativos, incluidos los programadores y los abogados, parecen estar especialmente en riesgo.

Pero la verdad no es tan clara como parece. Hay muchas opiniones sobre la IA y el futuro del trabajo. Y aquí está el quid de la cuestión: Nadie sabe realmente dónde acabaremos.

Los chatbots pueden aprobar exámenes de secundaria, de licencia médica y de abogacía. Pueden resumir reuniones e incluso escribir artículos de noticias básicos. Pero muchos investigadores niegan que nada de eso sea evidencia de verdadera inteligencia. E incluso si lo fuera, la mayoría de los trabajos implican mucho más que lo que esos modelos pueden hacer.

Muchos empleos implican muchas tareas, y los empleadores están tratando de determinar cuáles se pueden subcontratar de manera confiable a la IA y cuáles no. Pero existe una gran diferencia entre que la IA reemplace una tarea y que reemplace a un trabajador.

Dicho esto, es probable que en el futuro veamos a personas y máquinas trabajando juntas con más frecuencia. Los médicos que trabajan en equipo con la IA pueden detectar el cáncer de mama con más frecuencia que los médicos o los sistemas de IA por separado. Mientras tanto, los programadores están utilizando la IA para aprender nuevos lenguajes de programación y los consultores la han utilizado para generar nuevas ideas.

Existen muchos beneficios potenciales. Delegar tareas tediosas como programar o resumir reuniones a la IA podría permitir que las personas se concentren en los aspectos más satisfactorios de su trabajo. Y las investigaciones muestran que la IA puede ayudar a los trabajadores menos calificados en algunos empleos a competir con aquellos que tienen más educación y experiencia. (Aunque las personas que dependen demasiado de estos modelos pueden volverse descuidadas y tener menos probabilidades de detectar errores).

Sin embargo, no todo el mundo tiene una visión optimista sobre la IA. Algunos economistas creen que la IA amenazará empleos que antes parecían a prueba de automatización porque requieren habilidades creativas y razonamiento lógico. Los sistemas de IA no han sido tradicionalmente fuertes en estas áreas, pero, recientemente, se han vuelto mucho más capaces. Hay algunas cifras alarmantes: Goldman Sachs predice que los avances de la IA podrían automatizar 300 millones de empleos , lo que representa aproximadamente el 18% de la fuerza laboral mundial, hasta cierto punto. Pero el mismo informe también dice que la IA conducirá a enormes aumentos de productividad y crecimiento económico.

Por supuesto, el crecimiento económico general no está garantizado: si estos nuevos sistemas de IA desplazan a trabajadores sin crear nuevos tipos de empleos, es posible que solo hagan que unas pocas empresas de alta tecnología y sus propietarios sean aún más ricos. Pero nuestros reporteros de IA dicen: ¡No se asusten! Aunque los avances en IA generativa, como ChatGPT y otros grandes modelos de lenguaje, probablemente transformarán la economía y los mercados laborales , no hay evidencia convincente de que estemos en camino a un futuro sin empleos. 

Para entender por qué, veamos más de cerca cómo está cambiando una industria en la era de la IA generativa.

 Estudio de caso

 En algunos sentidos, la IA generativa parece especialmente adecuada para el trabajo legal . Los modelos de lenguaje de gran tamaño son muy buenos para analizar texto. El trabajo legal también tiene toneladas de tareas repetitivas que podrían automatizarse, como la búsqueda de leyes y casos aplicables y la obtención de pruebas relevantes.

Y los abogados ya están muy acostumbrados a revisar y editar el trabajo de otras personas. Eso es bueno, porque los grandes modelos de lenguaje distan mucho de ser perfectos y su resultado tendría que ser controlado minuciosamente. El uso de más inteligencia artificial, con un humano en el circuito, podría ser relativamente fácil y práctico para los bufetes de abogados en comparación con otras industrias.

De hecho, la IA ya se está utilizando para revisar contratos y predecir resultados legales, y los investigadores incluso han explorado cómo la IA podría ayudar a redactar leyes . 

 ¿Pero están convencidos los abogados? 

 La IA aún no se ha adoptado de forma generalizada en los bufetes de abogados. Todavía existen demasiadas limitaciones y riesgos: GPT-4 a veces crea textos muy convincentes pero incorrectos y hace un uso indebido del material original. 

Pablo Arredondo, abogado e investigador de la Facultad de Derecho de Stanford, dice que una vez GPT-4 lo hizo dudar de los hechos de un caso en el que había trabajado: “Le dije: 'Estás equivocado. Yo defendí este caso'. Y la IA dijo: 'Puedes sentarte ahí y alardear de los casos en los que trabajaste, Pablo, pero yo tengo razón y aquí tienes pruebas'. Y luego me dio una URL [que no conducía] a nada”. 

Es posible que hayas oído que GPT-4 aprobó el examen universal de abogados, que es la prueba estándar necesaria para obtener la licencia de abogado. Sin embargo, eso no significa que la IA esté preparada para ser abogado. El modelo podría haber sido entrenado en miles de exámenes de práctica, lo que lo llevó a convertirse en un excelente candidato para los exámenes, pero no necesariamente en un gran abogado. (No sabemos mucho sobre los datos de entrenamiento de GPT-4 porque OpenAI no ha publicado esa información).

La gran pregunta será si los abogados podrán realmente confiar en estos sistemas. Y si los abogados jóvenes tienen menos práctica en la investigación jurídica que se ha transferido a una IA, ¿qué significa eso para la experiencia y la supervisión en el campo?

 Bueno, pero ¿qué significa esto para mí?

 Es posible que todo este cambio te haga sentir que es difícil planificar tu carrera. Si vas a la universidad o estás explorando una carrera profesional, ¿cómo deberías tener en cuenta la IA?

Por supuesto, podrías lanzarte directamente a la IA, tal vez trabajando como ingeniero de programación o como alguien que entrena modelos de IA . Pero nuestros reporteros dicen que eso no es necesario. Simplemente sigue tu curiosidad. Los trabajos no van a desaparecer de repente y siempre han evolucionado con las nuevas tecnologías. La mejor manera de prepararse para la IA es aprender cómo se puede utilizar para ampliar tus habilidades y capacidades en cualquier trabajo que hagas.

Es cierto que las empresas han recurrido a menudo a la IA y a la automatización avanzada para eliminar puestos de trabajo y reducir costes. No existe ninguna regla económica que establezca que la innovación favorecerá la creación de empleo y la ampliación de la mano de obra humana por encima de este tipo de automatización. Pero, de cara al futuro, tenemos opciones: Podemos utilizar la tecnología para sustituir a los trabajadores o podemos utilizarla para ampliar sus habilidades y capacidades, lo que conducirá al crecimiento económico y a la creación de nuevos puestos de trabajo. La elección es nuestra.

 

Bien, me despedido, pero, no sin antes recordarles que: Si tienen un hijo, sobrino, nieto, o ustedes mismos a quien tienen que agasajar, qué mejor que regalarle mi libro de El Ajedrez de la B a la Q, Tomo I (no se demoren que ya viene el Tomo II), que podrán encontrar en Mi Librería:

Avenida España 1927 – Mendoza – Argentina.
Celular: +54 9 261 6321054
E-mail: consultas@milibreria.net
Web: www.milibreria.net


domingo, 8 de diciembre de 2024

Minicurso sobre la IA 4

 Bien, queridos amigos, dado el gran recibimiento que está teniendo el minicurso sobre la IA del Massachusetts Institute of Technology, he decidido no hacer, por ahora, una pausa en su publicación (téngase en cuenta que Policromía se basa en el salto de una idea a cualquier otra).

Así pues, los dejo con el MIT que les hablará, en esta entrega, de los peligros de la IA de los cuales hay que estar prevenido.

¡Vamos a ello!

 

Entrega 4: Trampas de la IA a las que estar atentos.

 Hola y bienvenido de nuevo. Hasta ahora, en esta serie, hemos explorado qué es la IA, cómo hablar de ella y cómo usar nuevas herramientas generativas. Ahora es el momento de aprender sobre los problemas más comunes de los sistemas de IA modernos para que puedas estar atento a ti mismo y a los demás.

A estas alturas, ya sabes que la IA puede ayudar a las personas y causarles daño. Los modelos de lenguaje de IA podrían convertirse en poderosas herramientas de productividad . Pero también existen muchos peligros, desde generadores de avatares sesgados hasta contenido generado por IA engañoso.

Para comprender mejor los riesgos, repasaremos algunos de los mayores desafíos relacionados con la IA que todos deberían conocer.

 


El problema del sesgo

Una preocupación crucial con respecto a la IA es el sesgo. Una IA solo puede ser tan buena como los datos con los que fue entrenada.

·         Los modelos de IA, como el generador de imágenes DALL-E 2, se entrenaron con datos predominantemente centrados en Estados Unidos . Cuando se les pide que generen imágenes de objetos cotidianos, desde puertas hasta casas, crean objetos que parecen estadounidenses, dice Federico Bianchi, investigador de la Universidad de Stanford.

·         Los datos que se utilizan para entrenar a los modelos de IA también conllevan otros sesgos. Por ejemplo, Internet está repleto de imágenes de mujeres desnudas o apenas vestidas, e imágenes que reflejan estereotipos sexistas y racistas. Cuando estos datos se utilizan para entrenar a la IA, esos sistemas generan este mismo tipo de imágenes. Es por eso que las mujeres suelen ser sexualizadas en las imágenes producidas por la IA, mientras que los hombres se muestran como exploradores, astronautas e inventores. Puedes ver por ti mismo cuán sesgados son los modelos de generación de imágenes . El sesgo puede introducirse y tener consecuencias en el mundo real, por ejemplo, en los sistemas de contratación que filtran millones de currículos .



·         El sesgo es un problema particularmente difícil de solucionar . No entendemos realmente cómo estos sistemas generan lo que generan y nuestros procesos para mitigarlo no son perfectos. Esto se debe en parte a que los sesgos son problemas sociales complejos que no tienen una solución técnica sencilla.

·         Existen formas de abordar este problema. OpenAI ha utilizado una técnica en ChatGPT llamada aprendizaje de refuerzo a partir de la retroalimentación humana , que mejora las respuestas del modelo en función de la retroalimentación de los usuarios. La empresa afirma que recopilará aún más retroalimentación del público para dar forma a sus modelos.


TL;DR : El sesgo seguirá estando presente en la mayoría de los modelos de IA generativa.

 

Por ejemplo, un algoritmo de contratación para un puesto vacante podría tener una marcada preferencia por los hombres si más hombres han desempeñado ese papel en el pasado. A medida que la IA prolifera, es importante ser escéptico con las cosas que vemos en línea. Y a medida que todos usemos más IA en nuestras vidas, tendremos que estar más atentos a cómo se infiltran los sesgos. El sesgo no solo tiene que ver con decidir si confiar en lo que vemos en línea. Tiene que ver con considerar si un sistema de IA es apropiado para usar en primer lugar.

Detección de IA

Los gobiernos y los actores políticos, tanto en democracias como en autocracias, están utilizando la IA para generar textos, imágenes y vídeos con el fin de manipular la opinión pública . Diferenciar entre la IA y los medios creados por humanos será cada vez más difícil a medida que la IA mejore. Por eso, reforzar esas habilidades ahora es una buena idea. Esto es lo que debes saber sobre los métodos de detección de la IA.

·        Se pueden utilizar herramientas para detectar imágenes y textos generados por IA. Los investigadores de Harvard e IBM desarrollaron una herramienta llamada Giant Language Model Test Room,  que resalta pasajes de texto que pueden haber sido generados por un programa informático. 

·        Pero recuerda que ninguna de estas herramientas es perfecta. Nunca captarán con precisión el 100 % de los contenidos multimedia generados por IA. Algunas personas incluso han sido acusadas falsamente por estas herramientas de usar IA para producir trabajos cuando no es así.

·        Es importante saber que los humanos no somos muy buenos para detectar textos generados por IA por nuestra cuenta, pero la buena noticia es que podemos mejorar. La investigadora Daphne Ippolito  creó un juego  para probar cuántas oraciones puede generar una computadora antes de que un jugador se dé cuenta de que el autor no es humano, y descubrió que las personas mejoraban con la práctica.

·        Las marcas de agua son otro tipo de técnica de detección. Los creadores individuales o los creadores de modelos de IA pueden agregar información a un contenido sobre sus orígenes, lo que facilita su verificación o rastreo a medida que viaja en línea. Google DeepMind fue la primera gran empresa tecnológica en  lanzar una marca de agua públicamente . Es un buen primer paso y una prueba importante de qué técnicas podrían funcionar mejor, dice Claire Leibowicz, directora del Programa de Integridad de Medios e IA en la Asociación de Inteligencia Artificial.

·        Pero las marcas de agua son algo muy nuevo y voluntario. Las principales empresas de IA aún están acordando un estándar. Los investigadores han descubierto que las marcas de agua se  eliminan fácilmente  y son vulnerables a la manipulación, lo que puede provocar falsos positivos y falsos negativos.  La orden ejecutiva del presidente Biden sobre IA  prometía nuevas directrices sobre el etiquetado del contenido generado por IA , pero la Ley de IA de la UE va un paso más allá y  exige etiquetas .

IA para pensamientos

 Aquí hay algunas cosas más que debes tener en cuenta:

 ·        Hallucinate no es solo el nombre de una gran canción de Dua Lipa, es en realidad lo que hacen todos los grandes modelos de lenguaje . Esa es otra forma de decir que los sistemas de IA inventan cosas lo que es una de las principales razones por las que no puedes confiar en todo lo que dicen.

·        Los chatbots están entrenados para adivinar qué palabras deben ir a continuación en una oración. No confíes en ellos cuando se trate de información financiera o de salud. Utiliza fuentes externas para verificar el resultado de cualquier inteligencia artificial.

·        Los deepfakes son un problema que ni siquiera Taylor Swift puede evitar . La IA generativa ha hecho que sea ridículamente fácil y barato crear deepfakes realistas. Y casi todos los deepfakes están hechos para pornografía no consensuada . Cualquiera que haya publicado una foto de sí mismo públicamente en línea es vulnerable a esto, así que tenga mucho cuidado. Prioriza los canales privados frente a los públicos, especialmente cuando compartas imágenes o videos de menores.

·        Nadie sabe cómo funciona la IA . Aún es muy pronto para comprenderla, por lo que es de esperar que surjan más fallos y fallas a medida que se convierta en parte de los productos del mundo real.

 

Si deseas explorar más, te recomendamos un curso en línea gratuito llamado Elementos de IA , desarrollado por una startup llamada MinnaLearn y la Universidad de Helsinki.

A medida que la IA se vaya abriendo camino en nuestras vidas, las habilidades de todos en materia de IA aumentarán y nos adaptaremos a las peculiaridades y limitaciones de estos sistemas. Mientras tanto, comprender cómo funciona la IA y sus limitaciones puede ayudarte a aprender a vivir con ella.



Bien amigos, me despido, ¡Hasta la próxima!


 

 

 

 

 

 

domingo, 1 de diciembre de 2024

Minicurso sobre la IA 3

Bien, queridos amigos, para no extenderlo mucho en el tiempo, continuamos en esta nota con el excelente trabajo sobre IA realizado por el prestigioso Massachusetts Institute of Technology, que tan útil herramienta se ha mostrado.

Esta tercera entrega lleva por título:

 

Tercera entrega: Cómo hablar de IA

Bienvenidos nuevamente a Introducción a la IA. Primero dedicamos un tiempo a aprender qué es la IA y luego nos sumergimos de lleno en su uso. Ahora vamos a descubrir cómo hablar sobre IA con todo tipo de personas en tu vida. Nuestro personal recopiló consejos para ayudarte a tener una conversación significativa sobre IA, ya sea con tu jefe o con tu mejor amigo.

Cómo hablar de IA

No te preocupes por sonar tonto.

Es natural tener preguntas y necesitar aclaraciones. Además, a la industria tecnológica le encanta la jerga. Por ejemplo, “alucinación” es una forma elegante de decir que un sistema de IA inventa cosas . Y los “ingenieros rápidos” son simplemente personas que saben cómo hablar con una IA para obtener lo que quieren.

Recuerda que la IA no es una sola cosa. Sé específico acerca del tipo de IA a que te refieres. ¿Es aprendizaje automático? ¿Procesamiento de lenguaje natural? ¿Visión artificial? La IA se utiliza a menudo como un término general para cualquier programa informático que aprende a partir de una gran cantidad de datos. Ten esto en cuenta cuando leas sobre empresas que hacen grandes promesas sobre el poder de la IA o sobre las políticas que necesitamos para mantener a la IA bajo control.

Sé curioso. Para comprender la inteligencia artificial, es necesario estar dispuesto a actualizar con frecuencia tus conocimientos y a permanecer abierto a nuevas posibilidades a medida que la tecnología evoluciona. Sigue haciendo preguntas y sé honesto acerca de lo que no sabes o no entiendes. Y recuerda: no te has quedado atrás. Todo el mundo todavía está tratando de entenderlo.

Sabe cuándo la IA no es la herramienta adecuada para el trabajo. ¿Deberías preguntarle a un chatbot qué debes tener en cuenta al comprar un impermeable? Por supuesto. ¿Pedirle información sobre dónde votar? ¿O que clasifique a los candidatos para un puesto de trabajo? Probablemente no. Las empresas no siempre son transparentes sobre lo que sus chatbots pueden hacer bien, lo que dificulta saber si se debe confiar en sus modelos. Recuerda que los modelos de IA son propensos a los sesgos , no siempre se actualizan con nueva información y se les indica que no respondan preguntas sobre determinados temas.

Encuentra un compañero. Ponerse al día sobre la IA puede ser tedioso a veces. Invita a un amigo o familiar a leer un libro o a hacer un curso en línea contigo. Aprender sobre IA juntos puede hacer que sea más divertido y más fácil mantenerse al día con el tiempo.

No antropomorfices. Los chatbots han capturado la imaginación del público porque generan texto que parece algo que podría haber escrito un humano y dan a los usuarios la ilusión de interactuar con algo que no es un programa informático. Pero los programas son, de hecho, todo lo que son. No atribuyas características humanas a la IA ni te refieras a ella con pronombres como "él" o "ella". La IA no puede pensar ni sentir nada.

Ten en cuenta que ni siquiera los expertos saben todas las respuestas. Oirás hablar de enormes inversiones en IA y de muchas grandes promesas. Pero hay muchas preguntas sin respuesta sobre esta tecnología e incluso demandas judiciales en curso sobre cómo las empresas de IA deberían manejar los datos de entrenamiento . En el nivel más básico, a los expertos les cuesta entender por qué los modelos dan las respuestas que dan. Eso ha dado lugar a todo un campo llamado IA explicable , que es la búsqueda de una IA que pueda explicar lo que está generando.

Cómo hablar con los niños sobre la IA

Es especialmente importante hablar con los niños sobre la IA porque comprender cómo funcionan estos sistemas se está convirtiendo en una forma básica de alfabetización, dice Regina Barzilay, profesora de informática del MIT. “En el futuro, podría crear enormes disparidades si solo las personas que van a la universidad y estudian ciencias de datos e informática entienden cómo funciona [la IA]”, dice.

A continuación, se presentan algunos puntos importantes a tener en cuenta al hablar sobre IA con los niños en su vida.

·   No olvides que la IA no es tu amiga. Los chatbots están diseñados para hacer exactamente eso: chatear. El tono amistoso y conversacional que utiliza ChatGPT puede hacer que a los niños les resulte fácil olvidar que están interactuando con un sistema de IA, no con un confidente de confianza. Esto podría hacer que los niños sean más propensos a creer lo que dicen estos chatbots en lugar de tratar las sugerencias de la IA con el escepticismo adecuado.

·   Los sistemas de recomendación están diseñados para engancharte y pueden mostrarte contenido no deseado. Es importante que los niños comprendan cómo funcionan los algoritmos de recomendación. Las empresas tecnológicas ganan dinero cuando la gente ve anuncios en sus plataformas y recopilan y venden datos sobre sus usuarios a los anunciantes.

Por eso, empresas como YouTube y TikTok, por ejemplo, han desarrollado potentes algoritmos de inteligencia artificial que rastrean de cerca lo que la gente ve y luego recomiendan videos similares, para que permanezcan más tiempo en la plataforma. Estos servicios tienden a guiar a los usuarios hacia contenido extraño o impactante, como publicaciones engañosas sobre salud o ideologías políticas extremas. Recuerda a los niños que no deben creer todo lo que ven en línea y que deben verificar la información con fuentes confiables.

·   Los profesores pueden acusarlo de usar IA en las tareas. Uno de los mayores desafíos para los profesores en este momento es determinar cuándo los estudiantes han usado IA para completar sus tareas. Familiarízate con las políticas de IA o los procesos de divulgación en la escuela de tu hijo (si existen) y recuérdale a tu hijo la importancia de cumplirlos.

Si acusan a tu hijo injustamente de usar inteligencia artificial en una tarea, mantenga la calma. No tema preguntar cómo se tomó la decisión y señale el registro que ChatGPT mantiene de las conversaciones de cada usuario si necesitas demostrar que tu hijo no copió material directamente. Los historiales de versiones en Microsoft Word o Google Docs también pueden ayudar a demostrar que un trabajo es original.

·   Utiliza la IA de forma responsable. La IA generativa no se limita al texto: Existen muchas aplicaciones gratuitas de deepfake y programas web que pueden colocar fácilmente el rostro de una persona en el cuerpo de otra sin su consentimiento.

Si bien es probable que se haya advertido a los estudiantes de hoy sobre los peligros de compartir imágenes íntimas en línea, también se les debe informar sobre los riesgos de cargar fotos de ellos mismos o de personas que conocen en estas aplicaciones, y hacerlo podría tener repercusiones legales.

Ayuda a brindarles a los niños y adolescentes ejemplos específicos de los riesgos legales o de privacidad. Por ejemplo, hablarles sobre cómo las aplicaciones de edición facial con inteligencia artificial podrían retener las fotos que suben o señalarles noticias sobre deepfakes dañinos de celebridades que aman puede causar una mayor impresión que las advertencias generales.

Gracias por leer y esperamos que esta guía te resulte útil. La entrega que viene aprenderemos todo sobre alfabetización mediática e inteligencia artificial. Prepárate y nos vemos.

 

 

Acerca de los idiomas

  El 3 de marzo de 2025, hace un año ya, el radiante sol mendocino alumbraba un día en que Nivi (yo) se disponía a publicar una nota en Poli...