tag:theconversation.com,2011:/fr/topics/machine-learning-67016/articles
machine learning – The Conversation
2023-05-10T17:10:49Z
tag:theconversation.com,2011:article/202673
2023-05-10T17:10:49Z
2023-05-10T17:10:49Z
Lo que la inteligencia artificial nos enseña sobre qué es realmente la inteligencia
<figure><img src="https://images.theconversation.com/files/522740/original/file-20230425-22-h3pwb5.jpg?ixlib=rb-1.1.0&rect=0%2C12%2C8487%2C4415&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/cyborg-on-blurred-background-creating-artificial-1229532355">Shutterstock / sdecoret</a></span></figcaption></figure><p>La llegada de la inteligencia artificial al público general ha supuesto el comienzo de un debate sobre si es posible que este sistema automático sustituya a la inteligencia humana. </p>
<p>Múltiples autores, de <a href="https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html">Noam Chomsky</a> a los <a href="https://www.unav.es/gep/AN/Aliseda.pdf">filósofos epistemólogos</a>, plantean una serie de dudas sobre este asunto: Chomsky detecta en ella la <a href="https://www.newtral.es/hannah-arendt-sobre-la-humanidad-del-mal/20191014/">banalidad del mal</a> de la filósofa Hannah Arendt, y otros consideran que no tiene capacidad para los <a href="http://www.commens.org/encyclopedia/article/fetzer-james-peirce-and-philosophy-artificial-intelligence">juicios abductivos</a> de nuestra mente, es decir, para la generación de nuevas lógicas en el progreso inesperado de la racionalidad.</p>
<p>Muchos autores piensan que esta “inteligencia” está lejos de ser creativa, no es generativa, aunque sea capaz de producir textos nuevos en apariencia. Pero realmente, ¿qué diferencia la inteligencia artificial de la inteligencia humana, a secas?</p>
<h2>Seleccionar, combinar y comparar</h2>
<p>Los autores que estudian la inteligencia compositiva o sintética, que es la que puede generar nuevas ideas, tienen <a href="https://revistas.ucm.es/index.php/CIYC/article/download/CIYC0505110113A/7295/8222">establecido</a> que el cerebro humano que procesa información de modo inteligente y creativo realiza tres actividades diferentes: </p>
<ol>
<li><p><strong>Combinación selectiva:</strong> uniendo y combinando piezas informativas de modos específicos. Permite innovar cambiando el orden de los elementos, y muchas invenciones son resultado de una combinación o asociación innovadora, como la visión de la doble naturaleza del electrón. </p></li>
<li><p><strong>Comparación selectiva:</strong> proyectando cadenas de asociaciones sobre nuevos contextos, para observar los paralelismos, es decir, realizando analogías y proyecciones metafóricas. Permite establecer paralelismos y lanzar hipótesis de unos campos a otros. Por ejemplo, ver la estructura molecular como una escalera de caracol o la del núcleo de un átomo como un pequeño sistema solar, comparaciones selectivas que generaron cruciales avances en el conocimiento.</p></li>
<li><p><strong>Codificación selectiva:</strong> sintetizando, eliminando y puliendo las estructuras hasta que pierden ambigüedad y la información superflua. Este es el principio crucial en los avances inventivos y creadores en todos los campos. Por poner un ejemplo sencillo: Rembrandt renunció al uso de la gama del color azul en sus pinturas para potenciar la expresión con los otros colores; o Frank Capra recomendaba siempre eliminar rollos de película filmada para mejorar la calidad del conjunto.</p></li>
</ol>
<p>La inteligencia artificial usa toda la información que nosotros mismos volcamos a la red, realiza comparaciones y constantes combinaciones de elementos, siendo capaz de rastrear y presentar composiciones de cualquier tema o texto. El parecido con las operaciones creativas existe, pero hay una diferencia radical. ¿Cuál es?</p>
<h2>Forma, elegancia y estética</h2>
<p>El matemático francés <a href="https://es.wikipedia.org/wiki/Henri_Poincar%C3%A9">Henri Poincaré</a> llegó a la conclusión de que el acceso al conocimiento innovador no era una operación mecánica, ni tampoco provenía de la lógica racional. Acceder a una idea nueva, decía, era un “sentimiento de la forma” de esa innovación. </p>
<p>Según explica en su obra <a href="https://blogs.upm.es/nosolotecnica/2011/07/28/ciencia-y-metodo-henri-poincare-la-science-nest-pas-tout/"><em>Ciencia y Método</em></a>, cuando descubría soluciones en su búsqueda de avances matemáticos, experimentaba una impresión de forma, que iba inexorablemente unida al descubrimiento, y de cuya captación dependía el posterior desarrollo de todo el avance. </p>
<p>Dicha experiencia podía considerarse estética, y Poincaré llegaba a experimentar la elegancia de la resolución de un problema matemático. ¿Qué quería decir Poincaré?</p>
<h2>Salto al futuro</h2>
<p>Los autores que estudian la inteligencia creadora efectivamente registran la paradoja de que cuando se crea una innovación en cualquier campo, se “saca de la nada” un conocimiento que antes no existía. Esta operación no puede generarse de modo automático, ni sistemático. Lo que hay en la invención creadora es un “salto al futuro” mediante un lenguaje nuevo, como explicaba <a href="https://es.wikipedia.org/wiki/Antoine_de_Saint-Exup%C3%A9ry">Antoine de Saint Exupéry</a> en sus <a href="https://editorialverbum.es/producto/cuadernos/"><em>Cuadernos</em></a>.</p>
<p>Según Saint Exupéry, la relación entre elementos, que es anteriormente impensable e improbable, se construye mediante el lenguaje. Y esta operación es un fenómeno que los creadores ven ligado a la visión repentina de una forma, composición o estructura nuevas. Una vez se expresan y son compartidas, cambian radicalmente nuestra realidad. Pero no podemos planificar su aparición porque pertenecen al futuro que ellas mismas van creando.</p>
<h2>El lenguaje cambiante</h2>
<p>Sólo mediante un lenguaje capaz de combinaciones infinitas de elementos finitos, que puede romper sus propias normas y establecer o moldear nuevos elementos, es posible que se produzcan estos saltos. </p>
<p>Según Poincaré y Saint Exupéry, entonces, la invención no es algo que resulte del compendio automático, ni del resumen de un conjunto profuso de datos, ni siquiera de la experiencia de aprendizaje previo. Se trata de algo diferente que está relacionado con un uso “disruptor” de los lenguajes y los códigos.</p>
<p>Cuando un creador, un investigador o un científico innovan, no siguen patrones de uso habitual ni compilan la información universal. Su selección de elementos puede ser completamente inexplicable. Puede que incluso desconozcan información básica, y ello precisamente les sirva para innovar. Las analogías con las que trabajen pueden escapar de toda plausibilidad, pero sin embargo, serán como las de Galileo, imprescindibles. Y sus síntesis creativas seguramente serán al mismo tiempo nuevas y asombrosamente adecuadas. Ello forma parte del avance en el conocimiento, que no puede ser automatizado ni fabricado. </p>
<p>En una muy reciente investigación, precisamente sobre <a href="https://www.nature.com/articles/s41586-022-05543-x">el declive de la expansión científica,</a>, se percibe la desaparición significativa del uso de lenguajes disruptores en todos los campos del avance científico humano. </p>
<h2>Trabajar con lo ya sabido</h2>
<p>La inteligencia artificial no puede generar información nueva ni usar el lenguaje para generar nuevos pensamientos jamás concebidos por los seres humanos, porque su base de trabajo es lo “ya sabido”, lo ya existente, la información universalmente compartida en la red. </p>
<p>Es un excelente medio para procesar o difundir lo ya sabido, pero no para pensar lo nuevo. Está férreamente atada al pasado, y sus estructuras y códigos repiten y reiteran lo existente, lo previo.</p>
<p>Estos sistemas pueden ayudar muchísimo para liberar a los informadores de tareas poco creativas e incluso puede que obligue a los profesionales a hacer algo más que repetir como loros la información convencional de fuentes ya conocidas.</p>
<p>Si aprendemos a distinguir entre inteligencia artificial e inteligencia creadora quizás podamos también aprender con ello que muchas de las formas de comportamiento que hoy consideramos inteligentes no son más que simples ejercicios de redundancia, superficialidad e incluso estupidez. La inteligencia artificial puede enseñarnos esto, al menos.</p><img src="https://counter.theconversation.com/content/202673/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Eva Aladro Vico no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>
La inteligencia humana alcanza su capacidad creativa e innovadora cuando combina, selecciona y contrapone ideas, conceptos y palabras como no se ha hecho nunca antes. Algo que la artificial no puede hacer.
Eva Aladro Vico, Catedrática de Teoría de la Información, Universidad Complutense de Madrid
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/199812
2023-03-22T18:16:22Z
2023-03-22T18:16:22Z
¿Podemos detectar la ansiedad y otros trastornos mentales a partir de las palabras que usamos?
<figure><img src="https://images.theconversation.com/files/512489/original/file-20230227-22-rl54t1.jpg?ixlib=rb-1.1.0&rect=0%2C1202%2C4688%2C2495&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/paintography-artwork-created-by-combining-portrait-2026475210">Shutterstock / LUMEZIA.com</a></span></figcaption></figure><p>Esperanza (nombre ficticio) se encuentra en la consulta de la psicóloga para tener su primera sesión. No se trata de la habitual sala de espera con una mesa baja de cristal en el centro y algunas revistas de moda desperdigadas. </p>
<p>En esta hay portátiles para los pacientes que, haciendo honor a su condición, esperan su turno con paciencia. Mientras tanto escriben un breve relato sobre su relación con amigos, familia o compañeros de trabajo. </p>
<p>Instantes después de terminar de escribir el suyo, Esperanza es llamada a consulta, y la psicóloga le atiende sujetando en sus manos un informe detallado de su caso. </p>
<p>“¡Cómo puede ser, si es la primera vez que vengo y todavía no he abierto la boca!”, piensa Esperanza, sorprendida.</p>
<p>El informe ha sido generado con técnicas de procesamiento de lenguaje natural, que han analizado cuidadosamente los patrones lingüísticos contenidos en el relato recién escrito, y han elaborado un diagnóstico previo que servirá como punto de partida para el trabajo de la psicóloga.</p>
<h2>Patrones lingüísticos</h2>
<p>Lo anterior es una descripción imaginaria de algo que hoy nos parece ciencia ficción, pero que podría ser una realidad en un futuro no excesivamente lejano. ¿Es cierto? ¿Podría la inteligencia artificial interpretar nuestros comportamientos hasta tal punto? </p>
<p>Para responder a estas preguntas, antes hay que atender a la siguiente: ¿existen patrones lingüísticos que muestren correlación con los diferentes trastornos mentales o con problemas del comportamiento?</p>
<p>Como prefacio, quizás debamos recordar una noticia reciente que puede que
a muchos les pasara inadvertida: <a href="https://historia.nationalgeographic.com.es/a/la-inteligencia-artificial-logra-identificar-una-obra-de-lope-de-vega_19061">el descubrimiento de una obra de Lope de Vega gracias a la inteligencia artificial</a>. En la investigación que llevó a cabo tal hallazgo, se entrenó un sistema de aprendizaje automático para reconocer los usos léxicos de hasta 350 dramaturgos, y resultó que la obra titulada <em>La francesa Laura</em> muestra un uso léxico que se alinea estrechamente con el estilo propio del “fénix de los ingenios”.</p>
<p>Además del valor literario del hallazgo, la investigación nos pone sobre la pista de un concepto realmente interesante: existen patrones lingüísticos que se pueden asociar a personas concretas, y que pueden detectarse automáticamente. </p>
<h2>Sintomatología y lenguaje</h2>
<p>Sobre esto, el avezado lector puede estar formulándose nuevas preguntas: ¿existen patrones que puedan asociarse a rasgos de la personalidad?, ¿y patrones que puedan asociarse a trastornos de ansiedad generalizada?, ¿se puede detectar la ansiedad a través de algún tipo de patrón lingüístico?</p>
<p>Actualmente ya hay evidencias de una relación estadísticamente significativa entre la sintomatología asociada a la ansiedad y las características del lenguaje utilizado. </p>
<p>Un ejemplo claro es el <a href="https://www.sciencedirect.com/science/article/abs/pii/S0747563218302619">predominio de pronombres de primera persona y de palabras negativas</a> en diversas patologías mentales o psicológicas. Los autores del estudio que enlazamos parten de textos en inglés de menos de 500 palabras extraídos de foros de internet sobre salud mental, y consiguen encontrar una diferencia significativa en el uso de tales pronombres.</p>
<p>La clasificación automática permite, con un conjunto de muestras debidamente etiquetadas, entrenar a una red neuronal para que <a href="https://arxiv.org/abs/2008.12875">reconozca los patrones</a> que hacen que un texto reciba una u otra etiqueta. </p>
<p>Esta técnica de clasificación de patrones, basada en la técnica de <a href="https://la.blogs.nvidia.com/2022/04/19/que-es-un-modelo-transformer/">aprendizaje profundo</a> (un modelo de arquitectura conocido como <em>transformers</em>, la misma arquitectura que utiliza el ya famoso ChatGPT), tiene una capacidad predictiva muy alta. </p>
<p>Como contrapartida, también es elevada la falta de explicabilidad de esta técnica. Dada una predicción, el sistema no ofrece información de por qué tomó dicha decisión. Huelga decir lo importante de la explicación que debe acompañar a un diagnóstico sobre salud mental.</p>
<h2>Tipos de palabras y emoción</h2>
<p>Por otra parte, si en lugar de clasificar patrones lo que hacemos es entrenar en la extracción de características tiene un valor predictivo menor, pero una mejor explicabilidad.</p>
<p>Dado un texto, se pueden cuantificar elementos como la complejidad de las oraciones formuladas o de las palabras utilizadas, la frecuencia de uso de determinados tipos de palabras (pronombres, adverbios, adjetivos), el estilo narrativo (voz pasiva o activa) o incluso se puede analizar la emoción primaria que predomina en el texto analizado, o el campo semántico al que pertenece. </p>
<h2>Uso en investigación y detección</h2>
<p>Son muchos los retos por abordar en este campo. El primero de ellos pasa por una detección más precisa de los diferentes trastornos. Es decir, ahora mismo existe la posibilidad de detectar si un paciente padece un trastorno relacionado con la salud mental, pero actualmente no es posible distinguir de cuál de ellos en concreto estaríamos hablando.</p>
<p>Todavía no sabemos si esta detección precisa es posible o no. En cualquier caso, la investigación pasará por cumplir otro de los retos pendientes: la recopilación de corpus de datos completos y confiables. </p>
<p>Gran parte de los trabajos existentes en la actualidad utilizan textos extraídos de diferentes fuentes de internet, ya sean redes sociales, foros especializados o servicios más específicos. No siempre está claro quién es el autor de cada texto y, como tal, es difícil (mejor dicho, imposible) conocer la realidad mental de dicha persona. </p>
<p>Sin una fuente de datos confiable (y las redes sociales no lo son), siempre se podrá poner en entredicho la validez de los datos y de los resultados. Debemos trabajar, por tanto, en métodos de captura de datos sólidos y confiables, alineados con las necesidades de investigación de cada caso. </p>
<h2>El reto de la explicabilidad</h2>
<p>Aunque existen aproximaciones más o menos útiles, las técnicas actuales de clasificación automática no aportan una relación de motivos por los cuáles se ha asignado tal o cual etiqueta a cada caso. Sin una buena colección de argumentos, es difícil que cualquier facultativo vaya a sentirse cómodo con un diagnóstico tan delicado. </p>
<p>Es por tanto de carácter imperativo abordar este reto de la explicabilidad, dotando a las herramientas de inteligencia artificial de la capacidad de aportar explicaciones a las decisiones tomadas.</p>
<p>Es posible que, conjugando técnicas de clasificación y extracción de características podamos resolver estos retos y, quien sabe, quizá el relato imaginario de la sala de espera se vuelva una realidad en los próximos años.</p><img src="https://counter.theconversation.com/content/199812/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Luis de la Fuente Valentín actualmente recibe fondos del Ministerio de Ciencia e Innovación en el contexto de la convocatoria a proyectos de Generación del Conocimiento y de la Universidad Internacional de La Rioja para proyectos de investigación de la propia universidad.</span></em></p><p class="fine-print"><em><span>Joaquín Manuel González Cabrera ha recibido fondos de Programa Estatal de I+D+I Orientada a los retos de la Sociedad y actualmente los recibe para proyectos de investigación en la Universidad Internacional de la Rioja.</span></em></p>
La inteligencia artificial tiene mucho potencial en el análisis de usos del lenguaje para detectar características o patrones de determinados estados anímicos.
Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR - Universidad Internacional de La Rioja
Joaquín Manuel González Cabrera, Docente e Investigador. Prof. Titular Universidad (Nivel 1). Dpto. Escuela, Familia y Sociedad. Facultad de Educación. Investigador Principal del Grupo Ciberpsicología (UNIR), UNIR - Universidad Internacional de La Rioja
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/197178
2023-03-15T18:02:34Z
2023-03-15T18:02:34Z
El reto (y las ventajas) de que la inteligencia artificial nos reconozca por la voz y por la cara
<figure><img src="https://images.theconversation.com/files/514203/original/file-20230308-28-r47jww.jpg?ixlib=rb-1.1.0&rect=8%2C8%2C5982%2C3979&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/asian-woman-using-face-recognition-via-1918469006">TZIDO SUN / Shutterstock</a></span></figcaption></figure><p>No cabe duda de que la tecnología se ha convertido en parte crucial de nuestras vidas. Los móviles, las tabletas o los ordenadores nos permiten estar en conexión constante con otras personas, crear contenido, hacer transacciones bancarias, adquirir todo tipo de artículos o asistir a una consulta médica desde casa, entre otras muchas cosas. </p>
<p>Un gran problema de esta nueva era <em>online</em> es <a href="https://theconversation.com/es/topics/hackers-1203">que personas no deseadas pueden acceder</a> a toda la información de nuestros dispositivos. Y también nos podemos encontrar con dificultades de acceso si no recordamos <a href="https://theconversation.com/el-quijote-o-un-gestor-de-contrasenas-para-crear-claves-complejas-que-podamos-recordar-183934">la contraseña</a> o al buscar información específica en vídeos. </p>
<p>Por eso es tan importante incorporar técnicas de inteligencia artificial que reconozcan rasgos únicos e intransferibles del usuario como su cara o su voz, a modo de “huella digital”. La ventaja sobre la huella dactilar, por ejemplo, es que los dispositivos no precisan una tecnología específica: basta con la cámara y/o el micrófono que ya incorporan casi todos los modelos. </p>
<h2>Máquinas que aprenden al estilo de nuestras neuronas</h2>
<p>En los últimos años se han producido grandes avances en este campo gracias a las técnicas de <a href="https://theconversation.com/es/topics/deep-learning-86026">aprendizaje profundo</a> basadas en redes neuronales. Estas redes intentan aprender igual que el cerebro, simulando el proceso de aprendizaje por acierto y error que llevan a cabo nuestras neuronas. Por ejemplo, cuando somos bebés, no sabemos distinguir a quién estamos viendo u oyendo. El cerebro aprende a identificarlos con la experiencia.</p>
<p>La clave del proceso es, pues, el entrenamiento. Se trata de ofrecer al sistema un conjunto de datos de entrada, indicándole la información que debe aprender de ellos. Una vez asimile dicha información, sabrá qué debe hacer cuando reciba nuevos datos. En el caso que nos ocupa, voces e imágenes de rostros.</p>
<p>Estas técnicas ya funcionan bastante bien cuando se “alimenta” al sistema con mucha información. Pero ¿qué pasa si queremos crear un sistema de reconocimiento de personas por su voz con pocos datos específicos para la aplicación donde se va a usar?</p>
<h2>Identificar la frase exacta</h2>
<p>Hoy en día, es fácil disponer de grabaciones sonoras de personas que hablan de cualquier tema, pero no tanto diciendo una frase específica que permita mejorar la seguridad o la personalización de los sistemas de reconocimiento. </p>
<p>Un ejemplo son los <a href="https://theconversation.com/ok-google-de-verdad-me-importa-mi-privacidad-197494">asistentes virtuales</a> que solo se activan cuando el dueño dice: ‘Oye, Siri’ u ‘Ok, Google’. Estos aparatos funcionan ya bastante bien hoy en día, pero los desarrolladores no siempre pueden disponer de los inmensos recursos con los que cuentan Apple o Google.</p>
<p>En casos así, con pocos datos adecuados para enseñar al sistema, usar grandes redes neuronales entrenadas de forma genérica no es la mejor solución. El sistema no va a poder diferenciar correctamente entre varios individuos hablando y diciendo una frase específica. </p>
<p>Para abordar este desafío, en el Instituto de Investigación en Ingeniería de Aragón, Universidad de Zaragoza, <a href="https://www.researchgate.net/publication/363377538_Representation_and_Metric_Learning_Advances_for_Deep_Neural_Network_Face_and_Speaker_Biometric_Systems">hemos usado</a> redes neuronales modificadas. En su desarrollo tuvimos en cuenta la importancia de que la persona que habla pronuncie la frase que le corresponde, ya que tratar todas las partes de las grabaciones por igual –como lo hacen las grandes redes neuronales– no es lo ideal en estos casos. </p>
<p>Con este fin, <a href="https://www.sciencedirect.com/science/article/pii/S1051200422004766">introdujimos modificaciones</a> que permitieran fijar la atención de los sistemas en los distintos segmentos de la frase pronunciada, aparte de reconocer la identidad del locutor. Las redes así creadas han demostrado ser robustas y capaces de diferenciar bastante bien entre diferentes personas diciendo cosas concretas. </p>
<p>Más allá de estos avances, la escasez de datos específicos en determinadas situaciones sigue constituyendo un reto para mejorar la seguridad y la personalización de los sistemas de reconocimiento. Por ejemplo, todavía nos encontramos con problemas cuando la voz del locutor cambia mucho debido a una enfermedad. </p>
<p>Por otra parte, también nos podemos enfrentar al problema opuesto: ¿qué ocurre cuando disponemos de demasiada información y dos rasgos físicos que reconocer?</p>
<h2>Reconocimiento simultáneo de voz y rostro</h2>
<p>La expansión de dispositivos con cámaras y micrófonos ha aumentado exponencialmente el volumen de vídeos disponibles en los propios aparatos o internet en general. Esas grabaciones son muy valiosas <a href="https://www.mdpi.com/2076-3417/12/3/1141">para desarrollar las técnicas de inteligencia artificial</a>: pueden aprovecharse las voces y los rostros para crear sistemas más seguros que identifiquen ambos rasgos a la vez. </p>
<p>Sin embargo, necesitamos saber qué información exacta aparece en los archivos. Hasta ahora ese proceso se ha hecho manualmente y es muy costoso. </p>
<p>En el trabajo citado anteriormente también desarrollamos nuevos sistemas de reconocimiento conjunto de voz y cara que pueden ayudar a analizar y catalogar el contenido audiovisual de manera más eficiente y automática. Por ejemplo, permitiría buscar en un programa de noticias en qué momento ha hablado alguien de algún tema o cuándo ha aparecido en escena, aunque esté en silencio. </p>
<p>En resumen, la tecnología de reconocimiento de voz y rostro ha avanzado mucho en los últimos años y ya es parte de nuestra vida cotidiana, pero aún existen desafíos por delante. Es importante abordarlos para mejorar el acceso y la seguridad de nuestros dispositivos y acercar la tecnología a todas las personas.</p><img src="https://counter.theconversation.com/content/197178/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Victoria Mingote Bueno recibe fondos del Ministerio de Economía y Competitividad del Gobierno de España y del Gobierno de Aragón. </span></em></p>
Los sistemas de inteligencia artificial cada vez afinan más a la hora de identificar nuestra voz y nuestro rostro. El objetivo es mejorar el acceso y la seguridad de nuestros dispositivos.
Victoria Mingote Bueno, Investigadora Postdoctoral del Departamento de Ingeniería Electrónica y Comunicaciones y del Instituto Universitario de Investigación en Ingeniería de Aragón (I3A), Universidad de Zaragoza
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/197829
2023-01-22T20:41:10Z
2023-01-22T20:41:10Z
Inteligencia artificial para saber si un alimento es ultraprocesado y mucho más
<figure><img src="https://images.theconversation.com/files/504895/original/file-20230117-14-f2kirv.jpg?ixlib=rb-1.1.0&rect=14%2C14%2C9475%2C5534&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/nutrition-science-concept-data-analytics-foods-1811079439">Shutterstock / metamorworks</a></span></figcaption></figure><p>En los últimos años, ha quedado sobradamente demostrado que el consumo de <a href="https://theconversation.com/es/topics/ultraprocesados-95570">alimentos ultraprocesados</a> se relaciona con la prevalencia de diversas enfermedades, como los trastornos cardiovasculares, la obesidad, la diabetes o el síndrome metabólico. También hay evidencias bastante sólidas que vinculan estos productos a otras enfermedades crónicas como el cáncer y las <a href="https://theconversation.com/el-consumo-de-alimentos-ultraprocesados-aumenta-las-papeletas-de-sufrir-alzheimer-187943">dolencias neurodegenerativas</a>. Pero ¿son todos los ultraprocesados iguales?</p>
<p>El principal problema para responder a esta pregunta es que no había una forma de <a href="https://theconversation.com/pistas-clave-para-reconocer-un-alimento-ultraprocesado-193313">diferenciar grados de procesamiento</a> dentro de esta categoría. El sistema de clasificación más aceptado por la comunidad científica es el NOVA, que clasifica todos los alimentos en cuatro grupos. Los ultraprocesados se integrarían en NOVA 4, y <a href="https://www.aesan.gob.es/AECOSAN/docs/documentos/seguridad_alimentaria/evaluacion_riesgos/informes_comite/ULTRAPROCESADOS.pdf">el resto son</a> NOVA 1 (no procesados o mínimamente procesados), NOVA 2 (ingredientes culinarios) y NOVA 3 (procesados).</p>
<h2>No es lo mismo el humus que la bollería industrial</h2>
<p>Sin embargo, NOVA 4 es muy heterogéneo. En él podemos encontrar desde <a href="https://es.openfoodfacts.org/producto/8480000808585/hummus-de-garbanzos-receta-clasica-hacendado">humus</a> hasta productos de <a href="https://es.openfoodfacts.org/producto/40052397/kitkat-barre-chocolatee-41-5g-nestle">bollería industrial</a>. Puesto que no es posible diferenciar grados de procesamiento dentro de este grupo, tampoco podemos establecer asociaciones entre los diferentes ultraprocesados y la prevalencia de las enfermedades antes mencionadas.</p>
<p>Este problema es el que han resuelto investigadores de Boston y Budapest mediante <a href="https://www.bbva.com/es/machine-learning-que-es-y-como-funciona/"><em>machine learning</em></a> o “aprendizaje automático”, una rama de la inteligencia artificial. <a href="https://www.medrxiv.org/content/10.1101/2021.05.22.21257615v1">El estudio está publicado como <em>preprint</em></a> –es decir, sin revisión por otros científicos aún–, aunque el sistema que propone ya se está aplicando.</p>
<p>Para categorizar los alimentos en función de su grado de procesamiento, los investigadores emplearon el clasificador FoodProX con <em>machine learning</em>. Para ello, el sistema toma como <em>inputs</em> los nutrientes de los alimentos declarados en las etiquetas. Así, puede diferenciar el grado de procesamiento de una cebolla cruda (con una probabilidad de que sea clasificado en NOVA 1 del 96,5 %) y del producto “aros de cebolla” (probabilidad de NOVA 4 del 99,2 %). </p>
<h2>Lo que va de la cebolla cruda a los aros de cebolla</h2>
<p>Sobre la base de estas probabilidades, se estableció la Puntuación de Procesamiento de Alimentos (FPro), donde 0 corresponde a alimentos crudos y 1 al alimento más ultraprocesado posible. Por ejemplo, FPro aumenta progresivamente de cebolla cruda (0,0203 puntos), a cebolla hervida (0,3126), cebolla frita (0,7779) y aros de cebolla (0,9955). </p>
<p>Esto permite desvelar el grado de procesamiento que caracteriza las diferentes técnicas de preparación de alimentos, asignando valores más bajos a los alimentos elaborados con ingredientes frescos que a los que incorporan ingredientes más procesados. Además, FPro también clasifica recetas complejas y platos mixtos.</p>
<p>Según la clasificación NOVA, los ultraprocesados se caracterizan por la presencia de determinados aditivos que mejoran sus propiedades sensoriales, como potenciadores del sabor, aromas, colorantes, emulgentes, etc. Si bien incorporar la información sobre los aditivos mejoró el rendimiento de FoodProX para clasificar alimentos, los cambios en el perfil de nutrientes ofrecían la mayor parte del poder predictivo.</p>
<p>Dicho de otra manera, el sistema no necesitaba incluir aditivos para determinar si un alimento es un ultraprocesado: con los nutrientes era suficiente. </p>
<p>Pero es que, además, a la inteligencia artificial se la puede entrenar para que incluya el lugar donde se prepararon los alimentos en la valoración de su calidad nutricional. Es decir, es capaz de distinguir entre alimentos caseros, alimentos preparados en cafeterías, cantinas, restaurantes, comidas rápidas y productos disponibles en las máquinas expendedoras.</p>
<h2>Proporción de ultraprocesados en la dieta individual</h2>
<p>Y, por si fuera poco, FoodProX puede evaluar la contribución de los alimentos ultraprocesados a la dieta de cada individuo. Para ello, los investigadores crearon la Puntuación de Procesamiento de Alimentos Individual (iFPro), que también varía de 0 a 1. Así se pudo obtener el dato de que los estadounidenses tienen un iFPro de 0,7872, lo que confirma la alta dependencia de la ingesta de alimentos ultraprocesados en esa población.</p>
<p>A pesar de que, como decía más arriba, el artículo todavía no ha llegado a publicarse en una revista tras ser evaluado por otros científicos, FPro ya se utiliza en la web <a href="https://www.truefood.tech/?store=all">TrueFood</a>. Creada por el mismo grupo de investigación, muestra el grado de procesamiento de un gran número de productos usando FPro como percentil. Por ejemplo, un yogur natural estaría en el percentil 4 de todos los yogures. Esto significa que si tenemos 100 diferentes en un estante, 96 de ellos estarán más procesados que ese yogur natural.</p>
<p>Puesto que los alimentos, las comidas completas y las dietas pueden ser clasificadas con FPro e iFPro, es posible emplear estos indicadores para buscar asociaciones con la prevalencia de las enfermedades metabólicas más habituales. Lo mismo que se hace con la clasificación NOVA, pero de una forma mucho más precisa.</p>
<p>Hay otras muchas posibles aplicaciones. Por ejemplo, FPro e iFPro permitirían establecer puntos de corte a partir de los cuales un alimento empieza a ser poco recomendable. O entrenar a la inteligencia artificial con otras variables, como la publicidad que reciben algunos alimentos o si la empresa que los produce es una multinacional. </p>
<p>Para los dietistas-nutricionistas sería interesante poder valorar el nivel de consumo de ultraprocesados en sus pacientes. Y para las autoridades, conocer el nivel de consumo de estos alimentos en un determinado grupo de población.</p>
<p>Seguro que a usted se le ocurren muchas más aplicaciones de este sistema. Desde mi punto de vista, supone un espaldarazo a la clasificación NOVA, pero va mucho más allá.</p><img src="https://counter.theconversation.com/content/197829/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Javier Sánchez Perona recibe fondos de la Interprofesional del Aceite de Orujo (ORIVA) y es miembro de Ciencia Con Futuro. </span></em></p>
El sistema de clasificación actual pone en el mismo saco a alimentos con muy distinto grado de procesamiento. Un grupo de investigadores ha desarrollado un método que, gracias a la inteligencia artificial, permite hacer distinciones mucho más afinadas.
Javier Sánchez Perona, Científico Titular del CSIC y Profesor Asociado de la Universidad Pablo de Olavide, Instituto de la Grasa (IG - CSIC)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/197740
2023-01-13T12:26:28Z
2023-01-13T12:26:28Z
La IA y el futuro del trabajo: cinco expertos hablan de ChatGPT, DALL-E y otras herramientas de creación y conocimiento
<figure><img src="https://images.theconversation.com/files/504282/original/file-20230112-27936-p01dpo.jpg?ixlib=rb-1.1.0&rect=3%2C0%2C2114%2C1409&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">¿Será la IA tu próxima compañera de trabajo... o tu sustituta?</span> <span class="attribution"><a class="source" href="https://www.gettyimages.com/detail/photo/robot-call-center-royalty-free-image/943557584">PhonlamaiPhoto/iStock via Getty Images</a></span></figcaption></figure><p><em>Desde la máquina de vapor y la electricidad hasta los ordenadores e Internet, los avances tecnológicos siempre han perturbado los mercados laborales, eliminando algunos puestos de trabajo y creando otros. “Inteligencia artificial” sigue siendo un término equivocado –los sistemas informáticos más inteligentes todavía no saben nada–, pero la tecnología ha alcanzado un <a href="https://www.vox.com/future-perfect/2023/1/4/23538647/artificial-intelligence-chatgpt-openai-google-meta-facial-recognition">punto de inflexión</a> en el que está a punto de afectar a nuevas clases de empleos: artistas y <a href="https://es.wikipedia.org/wiki/Trabajador_del_conocimiento">trabajadores del conocimiento</a>.</em></p>
<p><em>En concreto, la aparición de grandes modelos lingüísticos –sistemas de IA que se entrenan con grandes cantidades de texto– significa que los ordenadores ya pueden producir un lenguaje escrito que suene humano y convertir frases descriptivas en imágenes realistas. The Conversation ha pedido a cinco investigadores en inteligencia artificial que expliquen cómo afectarán los grandes modelos lingüísticos a los artistas y a los trabajadores del conocimiento. Como señalan estos expertos, la tecnología dista mucho de ser perfecta, lo que plantea una serie de problemas –desde la desinformación hasta el plagio– que afectan a los trabajadores humanos.</em></p>
<p><em>Aquí tiene la lista de cuestiones planteadas desde la que puede saltar a las respuestas correspondientes:</em> </p><hr><p></p>
<p><a href="#Creatividad">Creatividad para todos y ¿pérdida de competencias?</a><br>
<a href="#Inexactitudes">Posibles inexactitudes, sesgos y plagios</a><br>
<a href="#Nichos">Superados los humanos, quedarán los nichos laborales y lo “hecho a mano”</a><br>
<a href="#Trabajos">Los viejos empleos desaparecerán y surgirán otros nuevos</a><br>
<a href="#Avances">Los avances tecnológicos generan nuevas competencias</a></p>
<p></p><hr><p></p>
<p><a id="Creatividad"></a></p>
<h2>Creatividad para todos y ¿pérdida de competencias?</h2>
<p><strong>Lynne Parker, vicerrectora, Universidad de Tennessee</strong></p>
<p>Los grandes modelos lingüísticos están colocando la creatividad y el trabajo del conocimiento al alcance de todos. Cualquiera que disponga de una conexión a internet puede utilizar ahora herramientas como <a href="https://openai.com/blog/chatgpt/">ChatGPT</a> o <a href="https://openai.com/dall-e-2/">DALL-E 2</a> para expresarse y dar sentido a enormes repositorios de información, por ejemplo, elaborando resúmenes de textos.</p>
<p>Es especialmente notable la profundidad de la experiencia humana que muestran los grandes modelos lingüísticos. En cuestión de minutos, los principiantes pueden <a href="https://www.pcmag.com/how-to/how-to-use-dall-e-ai-art-generator">crear ilustraciones para sus presentaciones comerciales</a>, <a href="https://hbr.org/2022/11/how-generative-ai-is-changing-creative-work">elaborar propuestas de <em>marketing</em></a>, obtener ideas para <a href="https://towardsdatascience.com/got-writers-block-it-s-plotjam-to-the-rescue-e555db9f3272">superar el bloqueo del escritor</a> o <a href="https://arxiv.org/abs/2108.07732">generar nuevo código informático</a> para realizar funciones específicas, todo ello con un nivel de calidad que suele atribuirse a los expertos humanos.</p>
<p>Por supuesto, estas nuevas herramientas de IA no pueden leer la mente. Se necesita un nuevo tipo de creatividad humana, más sencilla, en forma de mensajes de texto para obtener los resultados que busca el usuario humano. A través de las instrucciones iterativas, un ejemplo de <a href="https://partnershiponai.org/wp-content/uploads/2021/08/CPAIS-Framework-and-Case-Studies-9-23.pdf">colaboración entre el humano y la IA</a>, el sistema de inteligencia artificial genera rondas sucesivas de resultados hasta que la persona que escribe las instrucciones queda satisfecha con uno de ellos. Por ejemplo, el ganador (humano) del reciente <a href="https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html">concurso de la Feria Estatal de Colorado en la categoría de artista digital</a>, que utilizó una herramienta basada en IA, demostró creatividad, pero no del tipo que requiere pinceles y ojo para el color y la textura. </p>
<p>Aunque abrir el mundo de la creatividad y el trabajo del conocimiento a todo el mundo tiene importantes ventajas, estas nuevas herramientas de IA también tienen inconvenientes. En primer lugar, podrían acelerar la pérdida de habilidades humanas importantes que seguirán siéndolo en los próximos años, especialmente la escritura. <a href="https://theconversation.com/the-dawn-of-ai-has-come-and-its-implications-for-education-couldnt-be-more-significant-196383">Las instituciones educativas deben elaborar y aplicar políticas</a> sobre los usos permitidos de los grandes modelos lingüísticos para garantizar juego limpio y los resultados de aprendizaje deseables.</p>
<p>En segundo lugar, estas herramientas de IA plantean cuestiones en torno a la <a href="https://www.mondaq.com/uk/patent/1261292/large-language-models-a-basic-explainer-and-look-at-ip-developments">protección de la propiedad intelectual</a>. Mientras que los humanos se inspiran habitualmente en artefactos existentes en el mundo, como la arquitectura, la escritura, la música y las pinturas de otros, hay cuestiones sin respuesta sobre el uso adecuado y justo por parte de los grandes modelos lingüísticos de ejemplos de entrenamiento protegidos por derechos de autor o de código abierto. <a href="https://www.wired.com/story/this-copyright-lawsuit-could-shape-the-future-of-generative-ai/">Las demandas judiciales en curso</a> debaten esta cuestión, que puede tener implicaciones para el futuro diseño y uso de los grandes modelos lingüísticos.</p>
<p>Mientras se debaten las implicaciones de estas nuevas herramientas de IA, el público parece dispuesto a adoptarlas. El chatbot <a href="https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html">ChatGPT se hizo viral</a> rápidamente, al igual que el generador de imágenes <a href="https://www.sciencefocus.com/news/dall-e-mini-creator-explains-blurred-faces-going-viral-and-the-future-of-the-project/">Dall-E mini</a> y otros. Esto sugiere un enorme potencial de creatividad sin explotar y la importancia de hacer accesible a todos el trabajo creativo y aquel relacionado con el conocimiento.</p>
<p></p><hr><p></p>
<p><a id="Inexactitudes"></a></p>
<h2>Posibles inexactitudes, sesgos y plagios</h2>
<p><strong>Daniel Acuña, profesor de Informática, Universidad de Colorado Boulder</strong></p>
<p>Soy usuario habitual de <a href="https://github.com/features/copilot">GitHub Copilot</a>, una herramienta para ayudar a la gente a escribir código informático, y he pasado incontables horas jugando con ChatGPT y herramientas similares de generación de textos por IA. En mi experiencia, estas herramientas son buenas para explorar ideas en las que no había pensado antes. </p>
<p>Me ha impresionado la capacidad de los modelos para traducir mis instrucciones a textos o códigos coherentes. Son útiles para descubrir nuevas formas de mejorar el flujo de mis ideas, o utilizar paquetes de software que no sabía que existían para solucionar problemas. Una vez que veo lo que generan estas herramientas, puedo evaluar su calidad y editarlas a fondo. En general, creo que suben el listón de lo que se considera creativo. </p>
<p>Pero creo que hay que ser cautelosos.</p>
<p>Uno de los problemas son sus imprecisiones, grandes y pequeñas. Con Copilot y ChatGPT, estoy constantemente buscando si las ideas son demasiado superficiales, por ejemplo, textos sin mucha sustancia o código ineficiente, o resultados que son simplemente erróneos, como analogías o conclusiones equivocadas, o código que no funciona. Si los usuarios no son críticos con lo que producen estas herramientas, serán potencialmente dañinas. </p>
<p>Hace poco, Meta cerró <a href="https://galactica.org/">Galactica</a>, su modelo de lenguaje para textos científicos, <a href="https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/">porque se inventaba “hechos” que parecían ciertos</a>. La preocupación era que pudiera contaminar Internet pretendiendo dar certezas mientras publicaba mentiras.</p>
<p>Otro problema son los sesgos. Los modelos lingüísticos pueden aprender de los sesgos en los datos introducidos y reproducirlos. Estos sesgos son <a href="https://doi.org/10.48550/arXiv.2211.03759">difíciles de ver en la generación de textos, pero resultan muy claros en los modelos de generación de imágenes</a>. Los investigadores de OpenAI, creadores de ChatGPT, han sido relativamente cuidadosos con lo que el modelo responderá, pero los usuarios suelen encontrar formas de sortear estas barreras.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1602600453555961856"}"></div></p>
<p>Otro problema es el plagio. Investigaciones recientes han demostrado que <a href="https://doi.org/10.48550/arXiv.2212.03860">las herramientas de generación de imágenes suelen plagiar el trabajo de otros</a>. ¿Ocurre lo mismo con ChatGPT? Creo que no lo sabemos. La herramienta podría estar parafraseando los datos que obtuvo en su entrenamiento, una forma avanzada de plagio. Los trabajos de mi laboratorio demuestran que las herramientas de detección de plagio de texto van <a href="https://doi.org/10.48550/arXiv.2212.06933">con retraso cuando se trata de detectar paráfrasis</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Dos filas de seis imágenes, cada par superior e inferior muy similares entre sí" src="https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=193&fit=crop&dpr=1 600w, https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=193&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=193&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=243&fit=crop&dpr=1 754w, https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=243&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/503185/original/file-20230105-130036-d765bd.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=243&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">El plagio es más fácil de ver en imágenes que en texto. ¿ChatGPT parafrasea también?</span>
<span class="attribution"><a class="source" href="https://doi.org/10.48550/arXiv.2212.03860">Somepalli, G., et al.</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Estas herramientas están en pañales, dado su potencial. Por ahora, creo que hay soluciones a sus limitaciones actuales. Por ejemplo, las herramientas podrían cotejar el texto generado con bases de conocimiento, utilizar métodos actualizados para <a href="https://doi.org/10.48550/arXiv.2212.09251">reconocer y eliminar sesgos</a> a partir de grandes modelos lingüísticos y filtrar los resultados con herramientas de detección de plagio más sofisticadas. </p>
<p></p><hr><p></p>
<p><a id="Nichos"></a></p>
<h2>Superados los humanos, quedarán los nichos laborales y lo “hecho a mano”</h2>
<p><strong>Kentaro Toyama, profesor de Información Comunitaria, Universidad de Michigan</strong></p>
<p>A los seres humanos nos encanta creer que somos especiales, pero la ciencia y la tecnología han demostrado una y otra vez que esta convicción es errónea. Antes se pensaba que el ser humano era el único animal que utilizaba herramientas, formaba equipos o propagaba la cultura, pero la ciencia ha demostrado que otros animales <a href="https://www.popularmechanics.com/science/animals/g39714258/animals-using-tools/">también hacen</a> <a href="https://www.science.org/content/article/dolphins-learn-names-their-friends-form-teams-first-animal-kingdom">estas</a> <a href="https://www.science.org/content/article/strongest-evidence-animal-culture-seen-monkeys-and-whales">cosas</a>. </p>
<p>Mientras tanto, la tecnología ha echado por tierra, una tras otra, las afirmaciones de que las tareas cognitivas requieren un cerebro humano. La primera máquina de sumar se <a href="https://www.britannica.com/technology/Calculating-Clock">inventó en 1623</a>. El año pasado, una obra generada por ordenador <a href="https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html">ganó un concurso de arte</a>. Creo que la singularidad –el momento en que los ordenadores alcancen y superen la inteligencia humana– está en el horizonte. </p>
<p>¿Cómo se valorarán la inteligencia y la creatividad humanas cuando las máquinas sean más inteligentes y creativas que las personas más brillantes? Probablemente habrá una progresión. En algunos ámbitos, la gente sigue valorando que los humanos hagan cosas, aunque un ordenador pueda hacerlas mejor. Ha pasado un cuarto de siglo desde que <a href="https://www.cnn.com/videos/business/2022/05/11/ibm-deep-blue-computer-beats-garry-kasparov-chess-champion-1997-vault-jg-orig.cnn">Deep Blue de IBM venció</a> al campeón mundial Garry Kasparov, pero las competiciones de ajedrez humanas –<a href="https://www.nytimes.com/2022/12/04/business/chess-cheating-scandal-magnus-carlsen-hans-niemann.html">con todo su drama</a>– no han desaparecido. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="ilustración de la portada de una revista que muestra a un astronauta caminando hacia el espectador en un planeta desértico" src="https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=750&fit=crop&dpr=1 600w, https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=750&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=750&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=943&fit=crop&dpr=1 754w, https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=943&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/503160/original/file-20230104-129813-ndxcdv.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=943&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La revista Cosmopolitan utilizó DALL-E 2 para producir esta portada.</span>
<span class="attribution"><a class="source" href="https://www.cosmopolitan.com/lifestyle/a40314356/dall-e-2-artificial-intelligence-cover/">©Hearst Magazine Media, Inc.</a></span>
</figcaption>
</figure>
<p>En otros ámbitos, la habilidad humana parecerá costosa y superflua. Por ejemplo, la ilustración. En general, a los lectores no les importa si la imagen que acompaña al artículo de una revista ha sido dibujada por una persona o por un ordenador: sólo quieren que sea relevante, nueva y quizá entretenida. Si un ordenador dibuja bien, ¿les importa a los lectores si en los créditos pone Mary Chen o System X? <a href="https://newsletters.theatlantic.com/galaxy-brain/62fc502abcbd490021afea1e/twitter-viral-outrage-ai-art/">A los ilustradores sí</a>, pero es posible que los lectores ni siquiera se den cuenta. </p>
<p>Y, por supuesto, esto no es una cuestión de blanco o negro. Muchos campos serán híbridos, algunos <em>Homo sapiens</em> encontrarán un nicho que les beneficie, pero la mayor parte del trabajo lo harán los ordenadores. Pensemos en la industria manufacturera: hoy en día, gran parte del trabajo lo realizan robots, pero algunas personas supervisan las máquinas y sigue existiendo un mercado para los productos hechos a mano. </p>
<p>Si la historia sirve de guía, es casi seguro que los avances en IA harán desaparecer más puestos de trabajo, que las personas creativas con habilidades exclusivamente humanas se harán más ricas pero serán menos numerosas, y que quienes posean tecnología creativa se convertirán en los nuevos megarricos. Podría haber un resquicio para la esperanza: cuando haya aún más personas sin un medio de vida decente, podrían <a href="https://theconversation.com/will-the-ai-jobs-revolution-bring-about-human-revolt-too-86290">agruparse políticamente</a> y contener la desigualdad galopante.</p>
<p></p><hr><p></p>
<p><a id="Trabajos"></a></p>
<h2>Los viejos empleos desaparecerán y surgirán otros nuevos</h2>
<p><strong>Mark Finlayson, profesor de Informática, Universidad Internacional de Florida</strong>.</p>
<p>Los grandes modelos lingüísticos son sofisticadas máquinas de completar frases. Si se les da una secuencia de palabras (“Me gustaría comerme una…”) devolverán las posibles terminaciones (“… manzana”). Algunos como <a href="https://openai.com/blog/chatgpt/">ChatGPT</a>, que se han entrenado con un número récord de textos (miles de millones), han sorprendido a muchos, incluidos investigadores de IA, por lo realistas, amplias, flexibles y sensibles al contexto que son sus respuestas.</p>
<p>Como toda nueva tecnología potente que automatiza una habilidad –en este caso, la generación de textos coherentes, aunque algo genéricos–, afectará a quienes ofrecen esa habilidad en el mercado. Para imaginar lo que puede ocurrir, conviene recordar el <a href="https://www.hup.harvard.edu/catalog.php?isbn=9780674417076">impacto de la introducción de los programas de tratamiento de textos</a> a principios de los años ochenta. Algunos empleos, como la mecanografía, desaparecieron casi por completo. Pero, por otro lado, cualquiera que dispusiera de un ordenador personal podía generar documentos bien mecanografiados con facilidad, lo que aumentaba ampliamente la productividad. </p>
<p>Además, aparecieron nuevos empleos y habilidades antes inimaginables, como la –a menudo incluida en el currículum– habilidad de trabajar con el paquete Office. Y el mercado de producción de documentos de gama alta se mantuvo, haciéndose mucho más capaz, sofisticado y especializado.</p>
<p>Creo que este mismo patrón se mantendrá casi con toda seguridad para los grandes modelos lingüísticos: ya no será necesario pedir a otras personas que redacten textos coherentes y genéricos. Por otra parte, los grandes modelos lingüísticos permitirán nuevas formas de trabajar, y también darán lugar a empleos nuevos y aún no imaginados. </p>
<p>Para comprobarlo, consideremos sólo tres aspectos en los que los grandes modelos lingüísticos se quedan cortos. En primer lugar, puede hacer falta bastante ingenio (humano) para crear un mensaje que obtenga el resultado deseado. Pequeños cambios en la instrucción pueden dar lugar a grandes cambios en el resultado. </p>
<p>En segundo lugar, los grandes modelos lingüísticos pueden generar resultados inapropiados o sin sentido sin previo aviso. </p>
<p>En tercer lugar, según los investigadores de IA, los modelos lingüísticos de gran tamaño no tienen <a href="https://doi.org/10.48550/arXiv.2002.12327">noción</a> de lo que es verdadero o falso, de si algo es correcto o incorrecto ni de lo que es simple sentido común. Además, <a href="https://doi.org/10.1007/s11023-020-09548-1">no pueden hacer cálculos matemáticos relativamente sencillos</a>. Esto significa que sus resultados pueden ser inesperadamente <a href="https://arstechnica.com/information-technology/2022/11/after-controversy-meta-pulls-demo-of-ai-model-that-writes-scientific-papers/">erróneos, tendenciosos, lógicamente defectuosos o simplemente falsos</a>. </p>
<p>Estos fallos son oportunidades para los trabajadores creativos o de la industria del conocimiento. En gran parte de la creación de contenidos, incluso para el público en general, se seguirá necesitando el juicio de los trabajadores humanos para impulsar, guiar, cotejar, curar, editar y, sobre todo, aumentar la producción de las máquinas. Muchos tipos de lenguaje especializado y muy técnico seguirán estando fuera del alcance de las máquinas en un futuro previsible. Y habrá nuevos tipos de trabajo: por ejemplo, los que se dediquen a ajustar internamente grandes modelos lingüísticos para generar textos especializados destinados a determinados mercados. </p>
<p>En resumen, aunque no cabe duda de que los grandes modelos lingüísticos presagian trastornos para los trabajadores creativos y del conocimiento, aún se vislumbran muchas oportunidades valiosas para quienes estén dispuestos a adaptarse e integrar estas nuevas y potentes herramientas.</p>
<p></p><hr><p></p>
<p><a id="Avances"></a></p>
<h2>Los avances tecnológicos generan nuevas competencias</h2>
<p><strong>Casey Greene, catedrático de Informática Biomédica, Campus Médico Anschutz de la Universidad de Colorado</strong>.</p>
<p>La tecnología cambia la naturaleza del trabajo, y el trabajo relacionado con el conocimiento no es diferente. En las dos últimas décadas, la biología y la medicina se han visto transformadas por <a href="https://www.science.org/content/article/100-genome-new-dna-sequencers-could-be-game-changer-biology-medicine">el rápido avance de la caracterización molecular</a>, como la secuenciación rápida y barata del ADN, y la <a href="https://www.economist.com/business/2020/12/02/the-dawn-of-digital-medicine">digitalización de la medicina</a> en forma de aplicaciones, telemedicina y análisis de datos.</p>
<p>Algunos pasos tecnológicos parecen mayores que otros. Yahoo <a href="https://www.fastcompany.com/40544277/the-glory-that-was-yahoo">utilizó administradores humanos para indexar contenidos emergentes</a> durante los inicios de la World Wide Web. La llegada de algoritmos que utilizaban la información contenida en los patrones de enlace de la web para priorizar los resultados alteró radicalmente el panorama de la búsqueda, transformando la forma en que las personas recopilan información hoy en día.</p>
<p>El lanzamiento de <a href="https://openai.com/blog/chatgpt/">ChatGPT de OpenAI</a> indica otro salto. ChatGPT integra un modelo de lenguaje de última generación adaptado al chat en una interfaz muy fácil de usar. Pone al alcance de la mano una década de rápidos avances en inteligencia artificial. Esta herramienta puede <a href="https://www.businessinsider.com/chatgpt-job-applications-hiring-managers-job-interview-candidate-2022-12">escribir cartas de presentación bastante decentes</a> e instruir a los usuarios sobre <a href="https://twitter.com/tqbf/status/1598513757805858820">cómo abordar problemas comunes en estilos lingüísticos seleccionados por el usuario</a>.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1598513757805858820"}"></div></p>
<p>Del mismo modo que las habilidades para encontrar información en internet cambiaron con la llegada de Google, las habilidades necesarias para obtener los mejores resultados de los modelos lingüísticos se centrarán en la creación de instrucciones y plantillas que produzcan los efectos deseados. </p>
<p>En el ejemplo de la carta de presentación, son posibles varias instrucciones. “Escribir una carta de presentación para un puesto de trabajo” produciría un resultado más genérico que “Escribir una carta de presentación para un puesto de especialista en introducción de datos”. El usuario podría crear mensajes aún más específicos pegando partes de la descripción del puesto, el currículum e instrucciones concretas, por ejemplo, “destaque la atención a los detalles”.</p>
<p>Como ocurre con muchos avances tecnológicos, la forma en que las personas interactúan con el mundo cambiará cuando los modelos de IA sean ampliamente accesibles. La cuestión es si la sociedad aprovechará este momento para avanzar en la equidad o para exacerbar las diferencias.</p><img src="https://counter.theconversation.com/content/197740/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Lynne Parker colabora con dos organizaciones sin ánimo de lucro: el Center for New American Security, en calidad de investigadora adjunta, y el Special Competitive Studies Project, como asesora experta.</span></em></p><p class="fine-print"><em><span>Casey Greene recibe financiación de los Institutos Nacionales de Salud para trabajar en métodos de aprendizaje automático para la integración de datos biomédicos, incluidos R01 CA237170, R01 HG010067, R01 LM013863 y R01 HD109765, así como de la Fundación Gordon y Betty Moore (GBMF 4552). Casey Greene es consultor de Arcadia Science y SomaLogic.</span></em></p><p class="fine-print"><em><span>Daniel Acuña recibe financiación de las subvenciones ORIIR180041, ORIIIR190049, ORIIIR200052 y ORIIIR210062 de la Oficina de Integridad en la Investigación de EE. UU., relacionadas con métodos automatizados para detectar manipulación de imágenes y plagio. También ha recibido financiación de la Fundación Nacional de Ciencias, la Fundación Sloan y DARPA a través del proyecto SCORE del Centro para la Ciencia Abierta.</span></em></p><p class="fine-print"><em><span>Kentaro Toyama recibe fondos de la National Science Foundation, la Russell Sage Foundation y la Universidad de Michigan.</span></em></p><p class="fine-print"><em><span>Mark Finlayson recibe fondos de la Fundación Nacional de Ciencias de EE. UU. (NSF) y la Agencia de Proyectos Avanzados de Defensa de EE. UU. (DARPA) para trabajar en el procesamiento del lenguaje natural. También ha trabajado como Becario Edison para IA en la Oficina de Patentes y Marcas Registradas de EE. UU. (USPTO) desde 2019.</span></em></p>
Ahora que los sistemas de IA pueden generar imágenes realistas y prosa convincente, ¿los trabajadores creativos están en peligro o a punto de aumentar su productividad? No está claro.
Lynne Parker, Associate Vice Chancellor, University of Tennessee
Casey Greene, Professor of Biomedical Informatics, University of Colorado Anschutz Medical Campus
Daniel Acuña, Associate Professor of Computer Science, Affiliate Professor of Information Science, University of Colorado Boulder
Kentaro Toyama, Professor of Community Information, University of Michigan
Mark Finlayson, Associate Professor of Computer Science, Florida International University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/176401
2022-04-17T19:13:51Z
2022-04-17T19:13:51Z
¿Es posible una inteligencia artificial sin prejuicios?
<figure><img src="https://images.theconversation.com/files/453328/original/file-20220321-25-15v34gk.png?ixlib=rb-1.1.0&rect=0%2C2%2C1917%2C1072&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.pexels.com/es-es/">Pexels</a></span></figcaption></figure><p>“Una mujer feliz y un hombre serio abrazados en un parque”. Que su ordenador ya sea capaz de describir de esta forma las fotos de sus viajes es genial. Y para muchas personas que navegan por internet usando lectores de pantalla es, además, una tecnología casi imprescindible. Todo esto gracias a la inteligencia artificial.</p>
<p>Por supuesto, las máquinas no son perfectas, a veces fallan. Pero últimamente estamos descubriendo algo preocupante: a veces los ordenadores fallan como falla un humano. Para una mujer y un hombre con la misma expresión, los sistemas de inteligencia artificial pueden tender a creer que ella está feliz y él de mal humor. A este tipo de errores les llamamos <a href="https://theconversation.com/los-sesgos-en-inteligencia-artificial-el-reflejo-de-una-sociedad-injusta-160820">sesgos</a>, e incluyen tendencias racistas, sexistas, capacitistas… que pueden acabar haciendo daño real a las personas.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Una pareja abrazada, desenfocados" src="https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=397&fit=crop&dpr=1 600w, https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=397&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=397&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=499&fit=crop&dpr=1 754w, https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=499&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/453808/original/file-20220323-25-55pjaj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=499&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Un sistema de inteligencia artificial reconoce las emociones en una imagen que muestra a una mujer sonriendo y a un hombre serio.</span>
<span class="attribution"><a class="source" href="https://www.drwyattfisher.com/pages/relationship-coach-certification">Wyatt Fisher</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>La cara como espejo del alma</h2>
<p>Para estudiar estos sesgos vamos a centrarnos en una aplicación concreta, el reconocimiento automático de emociones en fotografías.</p>
<p>Primero, necesitamos aclararle al ordenador a qué nos referimos con “emoción”. La clasificación más utilizada se basa en 6 emociones básicas: miedo, tristeza, alegría, enfado, asco y sorpresa. Esta clasificación fue propuesta por el psicólogo Paul Ekman en los 70. </p>
<p>Se ha demostrado que estas emociones son más o menos universales y todo el mundo las reconoce. Sin embargo, también se ha demostrado que se reconocen algo mejor entre personas del mismo grupo social, género, edad… No todos nos expresamos exactamente igual, ni leemos igual las expresiones del resto. Incluso sin darnos cuenta, estamos sesgados.</p>
<p>Estas diferencias se ven en muchos contextos, y en ocasiones se convierten en estereotipos y prejuicios. Por ejemplo, esperamos que las mujeres estén más felices que enfadadas, y lo contrario ocurre con los hombres. Y esto se refleja en internet, donde las fotos tienden a recoger, sobre todo, a mujeres sonrientes.</p>
<p>Por otro lado, para que un sistema de inteligencia artificial aprenda a distinguir estas emociones también necesitamos pensar en cómo las entendemos las personas. En realidad, la cara es solo una parte de un puzle muy complejo. También contribuyen los gestos, la postura, nuestras palabras… Aunque se trabaja en resolver todas estas modalidades con inteligencia artificial, la forma más popular y versátil es el reconocimiento basado en fotos de rostros.</p>
<h2>Cómo aprende una inteligencia artificial</h2>
<p>Crear una inteligencia artificial libre de sesgos es todo un reto. Y todo empieza con cómo hacemos para que esta tecnología “aprenda”. Al campo de la inteligencia artificial dedicado a este aprendizaje le llamamos <em>machine learning</em>. Aunque hay muchas formas distintas de aprendizaje, la más habitual es el aprendizaje supervisado.</p>
<p>La idea es simple: aprendemos a partir de ejemplos. Y la inteligencia artificial necesita saber para cada ejemplo, qué deseamos obtener. Para aprender a reconocer emociones, necesitamos un montón de fotos de caras con diferentes emociones: felicidad, tristeza, etc. La clave está en que para cada foto, debemos saber qué emoción aparece.</p>
<p>Después, le pasamos las fotos y sus emociones asociadas a la inteligencia artificial. Mediante un algoritmo de aprendizaje, el sistema irá aprendiendo “solo” a relacionar las fotos con las emociones que aparecen. Foto a foto, le pedimos que prediga una emoción: si acierta, seguimos adelante, y si falla, ajustamos el modelo para corregir este caso. Poco a poco, irá aprendiendo y fallará cada vez menos ejemplos. Si lo pensamos bien, no es tan diferente a cómo aprendemos los humanos.</p>
<p>Como se puede ver, en este proceso los ejemplos son fundamentales. Aunque existen avances que nos permiten aprender con pocos ejemplos, o ejemplos con errores, un conjunto de ejemplos grande y bien etiquetado es vital para conseguir una buena inteligencia artificial.</p>
<p>Por desgracia, en la práctica es habitual tener ejemplos con errores. En nuestro caso serían desde caras etiquetadas con la emoción equivocada hasta fotos sin caras o con caras de animales. Pero hay otros problemas, a veces más sutiles y preocupantes: racismo, sexismo, capacitismo…</p>
<h2>Cuando los algoritmos se equivocan</h2>
<p>Como se puede imaginar, si nuestros ejemplos están sesgados, la máquina aprenderá y reproducirá estos sesgos. En ocasiones, incluso multiplicará el efecto de los sesgos. Por ejemplo, si en nuestras fotos solo tenemos gente de piel oscura enfadada y gente de piel clara feliz, es muy probable que la inteligencia artificial acabe confundiendo el color de piel con el estado de ánimo. Tenderá a predecir enfado siempre que vea gente de piel oscura.</p>
<p>Desafortunadamente, esto no es solo una teoría. Ya se ha demostrado, por ejemplo, que los sistemas de análisis facial para reconocer el género <a href="http://gendershades.org/">fallan más para mujeres negras que para hombres blancos</a> y que <a href="https://dl.acm.org/doi/10.1145/3274357">cometen errores regularmente con gente trans o de apariencia no normativa</a>. </p>
<p>Uno de los ejemplos más sonados fue cuando en 2018 un sistema de inteligencia artificial <a href="https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28">identificó erróneamente a 28 congresistas estadounidenses como criminales</a>. De los políticos identificados, el 40 % eran personas de color, aunque estos solo representaban el 20 % del Congreso. Todo esto porque el sistema se había entrenado sobre todo con personas blancas, y confundía entre sí a la gente de color.</p>
<p>Detectar y reducir estos sesgos es un campo de investigación muy activo y con gran impacto social. Muchos de ellos son sutiles y se relacionan con varios factores demográficos al mismo tiempo, por lo que es un análisis difícil. Además, hay que revisar todas las fases del aprendizaje, desde la recogida de datos y sus medidas hasta la aplicación final. Y normalmente no son las mismas personas las que trabajan en cada fase.</p>
<h2>Una base de datos para incluirlos a todos</h2>
<p>Volvamos al reconocimiento de emociones. En internet existen muchas bases de datos de emociones ya etiquetadas. Desgraciadamente, las bases de datos más grandes suelen tener también fuertes sesgos de sexo/género, raza y edad.</p>
<p>Es necesario que poco a poco desarrollemos bases de datos diversas y equilibradas sobre las que trabajar. Es decir, necesitamos incluir a todo tipo de personas en nuestras bases de datos. Además, todas ellas deben estar bien representadas en cada emoción.</p>
<p>Por último, si queremos recoger datos sin sesgos, hay que pensar en todo el proceso. Todas las fases, desde la toma de datos hasta las pruebas finales de una inteligencia artificial, deben realizarse de manera cuidadosa y accesible. Y es necesario involucrar a personas que puedan reconocer y señalar posibles sesgos en todas ellas.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="El robot Sophia hablando desde un escenario, detrás de ella, una pantalla donde se puede leer 'AI for GOOD Global Summit'" src="https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/454081/original/file-20220324-13-1vsvaix.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">El robot Sophia (de Hanson Robotics) hablando en el AI for GOOD Global Summit de la Unión Internacional de Telecomunicaciones celebrado en Ginebra, Suiza, en junio de 2017.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/itupictures/34327888294/">ITU Pictures / Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<h2>Y todo esto ¿para qué?</h2>
<p>Todo este asunto de reconocer emociones quizás suene abstracto, pero ya tiene aplicaciones importantes. La más habitual es la tecnología asistiva, como la descripción automática de fotos para personas con problemas de visión. También se usa ya en robots domésticos. Puede aplicarse incluso en medicina, donde se ha logrado <a href="https://ieeexplore.ieee.org/document/8758989">reconocer automáticamente el dolor en recién nacidos</a> que a veces no lo expresan a través del llanto.</p>
<p>De todas formas, el estudio de los sesgos en inteligencia artificial va más allá de las emociones. Las tecnologías que desarrollamos tienen un impacto enorme en la vida de las personas. Tenemos un deber moral de asegurarnos de que sean justas, de que su impacto en el mundo sea positivo.</p>
<p>Queremos construir una inteligencia artificial en la que podamos confiar, que nos haga sonreír.</p>
<hr>
<p><em>Si quiere participar en la creación de una base de datos de emociones más justa y diversa, puede colaborar con el proyecto <a href="https://emotional-films.unavarra.es/colabora">Emotional Films</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/176401/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Mikel Galar Idoate recibe fondos del Ministerio de Ciencia e Innovación de España (PID2019-108392GB-I00 y PID2020-118014RB-I00 / AEI / 10.13039/501100011033) y del Gobierno de Navarra (0011-1411-2020-000079 - Emotional Films). Es miembro de las asociaciones científicas EUSFLAT e IEEE. Es socio co-fundador de Neuraptic AI.
</span></em></p><p class="fine-print"><em><span>Daniel Paternain recibe fondos de la Agencia Estatal de Investigación (AEI), Ministerio de Ciencia e Innovación y Universidades (PID2019-108392GB-I00 y PID2020-118014RB-I00 / AEI / 10.13039/501100011033) y del Gobierno de Navarra (Emotional Films 0011-1411-2020-000079). Es socio de la empresa Neuraptic AI y miembro de las asociaciones científicas EUSFLAT e IEEE.</span></em></p><p class="fine-print"><em><span>Iris Dominguez recibe fondos del Ministerio de Ciencia e Innovación de España (PID2019-108392GB-I00), de la Universidad Pública de Navarra y del Gobierno de Navarra (0011-1411-2020-000079 - Emotional Films).</span></em></p>
Para evitar que las máquinas muestren los mismos sesgos que las personas, es necesario mejorar todo el proceso de creación y aprendizaje de los algoritmos e involucrar a profesionales que puedan detectar los fallos.
Mikel Galar Idoate, Profesor del Área de Ciencias de la Computación e Inteligencia Artificial, Universidad Pública de Navarra
Daniel Paternain, Associate professor, Universidad Pública de Navarra
Iris Dominguez Catena, Estudiante de Doctorado en Ciencias y Tecnologías Industriales, Universidad Pública de Navarra
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/173919
2022-01-12T21:38:33Z
2022-01-12T21:38:33Z
Algoritmo: palabra del siglo, si la pandemia lo permite
<figure><img src="https://images.theconversation.com/files/440287/original/file-20220111-19-1eug9gf.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C3994%2C2497&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/big-data-artificial-intelligence-concept-machine-1178406460">Shutterstock / cono0430</a></span></figcaption></figure><p>Aunque no ha sido la palabra del año, porque la pandemia lo anula todo, cada vez usamos más la palabra “algoritmo” en nuestros trabajos, en nuestro ocio, en nuestras vidas. Los <a href="https://theconversation.com/es/topics/algoritmos-69765">algoritmos</a> parece que controlan lo que vemos, lo que leemos, lo que compramos, hasta los amigos que tenemos. Los algoritmos son omnipresentes y omnipotentes. La palabra algoritmo es una firme candidata a ser la palabra del siglo XXI, pero ¿sabemos qué es un algoritmo?</p>
<h2>Definición y origen de la palabra</h2>
<p>La Real Academia de la Lengua Española (RAE) <a href="https://dle.rae.es/algoritmo">define algoritmo</a> en su primera acepción como “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Su origen, según la propia RAE, quizás viene del latín tardío <em>algobarismus</em>, y este a su vez del árabe clásico <em>ḥisābu lḡubār</em>, que significa “cálculo mediante cifras arábigas”. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=950&fit=crop&dpr=1 600w, https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=950&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=950&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1194&fit=crop&dpr=1 754w, https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1194&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/440281/original/file-20220111-19-3m6ojq.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1194&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Imagen de <em>Compendio de cálculo por compleción y comparación</em> de Al-Juarismi (863).</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Image-Al-Kit%C4%81b_al-mu%E1%B8%ABta%E1%B9%A3ar_f%C4%AB_%E1%B8%A5is%C4%81b_al-%C4%9Fabr_wa-l-muq%C4%81bala.jpg">Wikimedia Commons</a></span>
</figcaption>
</figure>
<p>Otras fuentes, sin embargo, apuntan a que su origen proviene de la latinización del nombre de <a href="https://es.wikipedia.org/wiki/Al-Juarismi">Al-Juarismi</a>, matemático, astrónomo y geógrafo persa, considerado uno de los grandes matemáticos de la historia, que presentó la primera solución sistemática de ecuaciones lineales y cuadráticas.</p>
<p>Si reflexionamos sobre esta definición, podemos concluir que continuamente aplicamos algoritmos en nuestro día a día. </p>
<p>Y así es. Por poner algunos ejemplos, seguro que alguna vez hemos montado, o ayudado a montar, un mueble de esa conocida empresa sueca a partir de un conjunto más o menos largo, pero finito, de instrucciones. A partir de un montón de piezas metidas en cajas rectangulares podemos tener una cómoda, un armario o un sofá. Seguro que alguna vez también hemos sorprendido a alguien con un rico postre creado a partir de una lista de ingredientes y siguiendo la secuencia ordenada de pasos que se incluyen en la receta. </p>
<p>Si bien estos ejemplos encajan en la definición, la palabra algoritmo se suele asociar más a las matemáticas y a la informática. Veamos brevemente cómo son los algoritmos en estas dos disciplinas.</p>
<h2>Algoritmos en matemáticas</h2>
<p>Aunque es probable que no lo recordemos, la primera vez que nos enfrentamos a los algoritmos en matemáticas es en educación primaria. En esos cursos, los docentes enseñan algo tan básico y común en la vida como sumar, restar, multiplicar y dividir. En realidad, hacer estas operaciones es aplicar los algoritmos que nos permiten, a partir de unos números de entrada, obtener un resultado de salida. En la resta, por ejemplo, a partir del minuendo y el sustraendo, aplicando una serie de pasos, obtenemos la diferencia entre ambos valores, que es lo que llamamos resta.</p>
<p>En general, dado un problema matemático con solución, sabemos que no tiene por qué existir un único conjunto de pasos para resolverlo, sino que pueden existir varias formas diferentes de hacerlo, es decir, varios algoritmos. </p>
<p>Siguiendo con el ejemplo de la resta, cuando tienen llevadas, podemos aplicar varios algoritmos para llegar a la solución. Para los que fuimos a EGB, solía ser el algoritmo por compensación (más conocido como “me llevo una”) y para los más jóvenes, el algoritmo por agrupamiento. A veces esta diversidad de algoritmos lleva a los padres a desesperarse al intentar ayudar a sus hijos con los deberes del colegio, pero la realidad es que lo importante es que cada uno aplique el algoritmo que mejor se adapte a su forma de razonar.</p>
<p>Por supuesto, a medida que aumentan nuestros conocimientos en matemáticas vamos aprendiendo algoritmos más elaborados que proporcionan soluciones a problemas más complejos.</p>
<h2>Algoritmos en informática</h2>
<p>Los algoritmos en programación son básicos. Un programa informático no es más que una secuencia de instrucciones para que un ordenador realice una tarea determinada, a partir de unos valores de entrada. Normalmente, esta tarea sirve para resolver un problema. Por lo tanto, lo que estamos haciendo es que el ordenador implemente un algoritmo para que, a partir de un número finito de instrucciones, obtenga una solución. Podemos, por lo tanto, conseguir que un ordenador reste dos números, programando alguno de los algoritmos que nos permiten realizar una resta. </p>
<h2>Aprendizaje máquina</h2>
<p>En general, los algoritmos se pueden clasificar según el tipo de problemas que solucionan. Los hay de búsqueda, de ordenación, de compresión de datos, de gráficos, criptográficos y de aprendizaje máquina, entre otros.</p>
<p>Los de aprendizaje máquina o <a href="https://theconversation.com/es/topics/machine-learning-67016"><em>machine learning</em></a> son los que en los últimos años han captado más atención. Estos algoritmos tienen la característica particular de ser capaces de aprender a partir de datos. Así, realizan predicciones que nos permiten tomar decisiones de forma automática, sin que estén establecidas o decididas <em>a priori</em>. </p>
<p>El término <em>machine learning</em> se acuñó ya en el año 1959. Sin embargo, lo que ha provocado que en los últimos años estos algoritmos estén en auge es que ahora es cuando tenemos datos suficientes que nos permiten entrenarlos para poder ser empleados con resultados significativos. </p>
<p>Ya existen algoritmos que nos dan recomendaciones sobre qué ver, qué leer, qué comprar, a qué amigos seguir en las redes sociales en base al contenido que solemos consumir y a los gustos de personas que consumen contenidos similares a los nuestros. Aunque suelen acertar, reforzando de esta forma el propio funcionamiento del algoritmo, no olvidemos que pueden provocar el conocido efecto de <a href="https://theconversation.com/camaras-de-eco-los-peligrosos-atajos-que-los-algoritmos-provocan-en-nuestra-mente-172118">burbujas informativas o cámaras de eco</a>.</p>
<p>Si bien parece que estos algoritmos controlan nuestra vida y que pueden resultar peligrosos por los <a href="https://theconversation.com/el-sexismo-en-los-algoritmos-una-discriminacion-subestimada-140790">sesgos que se han demostrado que tienen</a>, no olvidemos que están programados, entrenados y validados por personas y, por lo tanto, somos las personas las que conscientemente tenemos que saber qué esperar de ellos, qué decisiones les dejamos tomar por nosotros, regulando su desarrollo para que <a href="https://theconversation.com/los-algoritmos-tambien-discriminan-a-los-seres-humanos-nosotros-podemos-impedirlo-124794">respeten criterios de equidad, sin ser discriminatorios</a>.</p>
<p>Quizás el futuro nos depare cosas inimaginables a día de hoy, pero por ahora no debemos temer a los algoritmos, sino que debemos darles el valor que tienen para ayudarnos a solventar problemas complejos. Mucho más cuando pueden ser entrenados y ejecutados en máquinas con una gran capacidad de computación.</p><img src="https://counter.theconversation.com/content/173919/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Celeste Campo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>
Los algoritmos suele emplearse en matemática e informática, pero también los aplicamos en muchas tareas cotidianas, como montar un mueble o hacer una receta.
Celeste Campo, Profesora Titular del Departamento de Ingeniería Telemática, Universidad Carlos III
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/165198
2021-08-16T18:06:43Z
2021-08-16T18:06:43Z
Drones inteligentes para asegurar que se cumplen las medidas anti-covid-19 en playas y conciertos
<figure><img src="https://images.theconversation.com/files/415649/original/file-20210811-17-1xjvh80.jpeg?ixlib=rb-1.1.0&rect=1%2C1%2C1076%2C580&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Algoritmos de inteligencia artificial pueden detectar personas en una imagen y comprobar si mantienen la distancia adecuada.</span> <span class="attribution"><span class="license">Author provided</span></span></figcaption></figure><p>Los drones han sido una valiosa herramienta en múltiples situaciones de emergencia como huracanes, terremotos o desastres nucleares. Pueden despegar rápidamente, volar a más baja altura que un avión o un helicóptero convencional, y obtener a un coste menor imágenes de muy alta resolución. </p>
<p>En la lucha contra la pandemia, estos vehículos aéreos son una herramienta ideal para el control del aforo en actos públicos al aire libre y para medir la distancia de seguridad que recomienda la <a href="https://www.who.int/emergencies/diseases/novel-coronavirus-2019/advice-for-public">Organización Mundial de la Salud</a> para lugares abiertos. </p>
<p>Con este objetivo, el grupo de investigación ICARUS de la Universidad Politécnica de Cataluña trabaja en el proyecto <a href="https://cit.upc.edu/es/portfolio-item/drones-para-controlar-aforos/">Drones against covid-19. Propagación by Controlling Capacity in Public Spaces</a>. </p>
<p>Nuestro grupo ha participado en el desarrollo de la tecnología y las aplicaciones de las aeronaves no tripuladas desde 2006. Hemos desarrollado, entre otras tecnologías, técnicas de visión por ordenador para que los drones tengan una navegación más segura. Nuestro objetivo es integrar a bordo múltiples herramientas de reconocimiento de imágenes. Actualmente nos enfocamos en algoritmos de inteligencia artificial capaces de detectar objetos directamente durante el vuelo.</p>
<h2>Vigilantes voladores inteligentes</h2>
<p>La base del proyecto es utilizar drones equipados con cámaras y un <em>software</em> que se ejecuta sobre el visor de vuelo del piloto (una tableta con sistema operativo Android). El objetivo es proporcionar a los agentes de la ley (y a la población) la información sobre el aforo que hay en actos multitudinarios en lugares abiertos: playas, conciertos al aire libre, rutas ciclistas, manifestaciones, entre otros. Así, se podrán prevenir contagios por covid-19.</p>
<p>Para que la información recogida sea útil, es importante que se obtenga en tiempo real, de forma que permita actuar a los agentes en sus tareas de vigilancia y control, y salvaguardar así la salud del público participante. Por ese motivo, estamos optimizando los algoritmos de visión por ordenador y procesamiento de imágenes para su rápida ejecución en el dispositivo del piloto.</p>
<p>La operativa consiste en que un agente de la policía local o del servicio de seguridad del evento vuele un dron a más de 50 metros de altura para obtener las imágenes de agrupaciones de personas. Estas imágenes, visibles desde el mando del piloto, serán procesadas con el <em>software</em>, permitiendo informar rápidamente sobre cuántas personas hay en los diferentes escenarios. </p>
<p>En menos de 5 minutos, se puede tener toda la información necesaria para tomar medidas en caso necesario. Las imágenes aéreas obtenidas y procesadas pueden ser transferidas al centro de control de forma casi inmediata para hacer partícipes de las decisiones a los altos mandos.</p>
<p>Actualmente estamos trabajando en colaboración con la guardia urbana de Castelldefels, que nos proporciona imágenes aéreas para entrenar los algoritmos y revisar la aplicación. Esperamos que puedan probar todo el sistema, dron incluido, en septiembre.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/415663/original/file-20210811-13-1rwj7v.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Dron que se utiliza para desarrollar el proyecto.</span>
<span class="attribution"><span class="source">Cristina Barrado/UPC</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<h2>Algoritmos que detectan personas</h2>
<p>Entrenamos modelos de datos basándonos en diferentes algoritmos de aprendizaje de profundidad (<em>deep learning</em>) para identificar qué formas de la imagen corresponden a una persona. Otros modelos anteriores están entrenados con las vistas utilizadas habitualmente por cámaras estáticas ubicadas en la calle o en interiores. En este caso, las imágenes recogidas por el dron tienen vistas verticales que necesitan nuevos entrenamientos.</p>
<p>La interfaz ya está diseñada y es capaz de trabajar con diferentes modelos para detectar individuos, incluso desde alturas en las que se pierde la resolución de la imagen. Además de la detección de personas suficientemente aisladas para ser detectadas individualmente, estamos ampliando las redes neuronales para que reconozcan y clasifiquen los patrones que identifican una agrupación compacta de personas. </p>
<p>Mejoraremos los algoritmos para detectar personas incluso en áreas de la imagen en las que, por la superposición de formas, no se distingue claramente si el objeto corresponde a un conjunto de personas o en los casos en que varias partes del cuerpo humano quedan ocultas. Estos nos permitirá estimar el número de individuos que aparece en una fotografía y la distancia que guardan entre ellas.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=325&fit=crop&dpr=1 600w, https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=325&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=325&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=409&fit=crop&dpr=1 754w, https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=409&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/415639/original/file-20210811-19-x1zunb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=409&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Imagen tomada por el dron que puede verse desde la aplicación.</span>
<span class="attribution"><span class="source">Cristina Barrado/UPC</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<h2>Privacidad de los observados</h2>
<p>Para salvaguardar la privacidad y evitar la identificación individual de las personas en una imagen, se programará un desenfoque automático de los rostros captados, de acuerdo con el <a href="https://www.boe.es/doue/2016/119/L00001-00088.pdf">Reglamento General de Protección de Datos</a> sobre la privacidad de las personas.</p>
<p>Los principales retos por resolver son: </p>
<ul>
<li><p>Mejorar la fiabilidad de los algoritmos de clasificación con redes neuronales, que ahora está en el <a href="https://paperswithcode.com/sota/image-classification-on-imagenet">80 %-90 %</a>.</p></li>
<li><p>Optimizar el rendimiento en la ejecución de los algoritmos de aprendizaje profundo para el dispositivo Android en el que se ejecutan usando <em>threads</em> (la versión actual tarda unos 30 segundos).</p></li>
<li><p>Crear una base de datos pública de imágenes aéreas tomadas por drones y etiquetadas, similares a <a href="http://www.image-net.org/">ImageNet</a>, <a href="http://cocodataset.org/#home">MS-COCO</a>, o <a href="http://www.cs.toronto.edu/%7Ekriz/cifar.html">CIFAR-10</a>.</p></li>
</ul><img src="https://counter.theconversation.com/content/165198/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>El proyecto Drones against COVID-19. Propagación by Controlling Capacity in Public Spaces está financiado por la Agencia de Gestión de Ayudas Universitarias (AGAUR) con el código 2020PANDE00141.</span></em></p>
Un dron equipado con una cámara y con un programa para contar personas y medir distancias permite controlar el aforo en playas, conciertos y otros eventos multitudinarios.
Angelica Reyes-Muñoz, Profesora-investigadora, Universitat Politècnica de Catalunya - BarcelonaTech
Cristina Barrado, Profesora titular de universidad de la UPC, Universitat Politècnica de Catalunya - BarcelonaTech
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/143480
2020-11-30T20:50:41Z
2020-11-30T20:50:41Z
Máquinas que ayudan a predecir el riesgo de enfermar de párkinson y alzhéimer
<figure><img src="https://images.theconversation.com/files/361053/original/file-20201001-20-up6gy1.jpg?ixlib=rb-1.1.0&rect=0%2C11%2C3834%2C2144&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/medical-technology-concept-remote-medicine-electronic-1654044256">Shutterstock / metamorworks</a></span></figcaption></figure><p>Todos sabemos intuitivamente qué significa que el tabaquismo aumenta el riesgo de padecer cáncer de pulmón, o que la dieta es factor de riesgo en enfermedades cardiovasculares. El concepto de riesgo de padecer una enfermedad es una potente herramienta conceptual para identificar, gestionar y transmitir al paciente los factores que lo predisponen a sufrirla. Estimar dicho riesgo consiste en un procedimiento analítico que permite representarlo con un valor numérico entre 0 y 1. A más riesgo, claro está, mayor valor. </p>
<p>Esta noción tan simple no solo proporciona una herramienta de comunicación realmente efectiva. Se trata, además, de un <a href="https://pubmed.ncbi.nlm.nih.gov/27528417/">instrumento básico de la medicina de precisión</a>. Es decir, la que persigue diseñar tratamientos personalizados para cada individuo según sus características personales, incluyendo su genética.</p>
<h2>Factores genéticos y ambientales</h2>
<p>A estas alturas está más que aceptado que la variación genética en nuestro ADN nos predispone a enfermedades. Tanto o más que determinados factores ambientales como el estilo de vida, el área geográfica en que vivimos, etc. </p>
<p>Además, cada enfermedad presenta una determinada importancia relativa de la genética con respecto al entorno. En las enfermedades puramente genéticas, una mutación concreta es suficiente para que la enfermedad se manifieste. Las puramente ambientales serían esas en las que nuestra carga genética tendría un papel irrelevante, como por ejemplo una hemorragia interna causada por un alimento en mal estado. </p>
<p>Entre ambos extremos del espectro, están aquellas en las que la genética se combina con el entorno, modulando así el riesgo individual de padecer la enfermedad. En estas enfermedades (diabetes tipo 2, párkinson, alzhéimer…), un conjunto de variantes genéticas, a veces cientos de ellas, conforman un riesgo global. Cada una de esas variantes o bien protege o bien predispone al individuo. </p>
<h2>La genética en enfermedades neurodegenerativas</h2>
<p>Si hablamos de enfermedades neurodegenerativas, el alzhéimer y el párkinson son dos buenos ejemplos de enfermedades complejas. En la gran mayoría de casos, la causa es desconocida y su diagnóstico no es trivial. Suele basarse en estudios neurológicos y neuropsicológicos, que van acompañados de numerosas pruebas complementarias (análisis de sangre, resonancia magnética, etc.). </p>
<p>Pues bien, <a href="https://www.sciencedirect.com/science/article/pii/S0969996120300577">ambas enfermedades</a> tienen un <a href="https://www.nature.com/articles/sdata2018142">componente genético</a>. Por tanto, tiene sentido preguntarnos: ¿es posible desarrollar herramientas basadas en la estadística o bien la inteligencia artificial, tomando como información, entre otros factores, la carga genética del paciente, para ayudar en el proceso diagnóstico? </p>
<p>Al fin y al cabo, intentar predecir si se va a tener una enfermedad en base a la genética <a href="https://pubmed.ncbi.nlm.nih.gov/26271532/">no es del todo nuevo</a>. Para lograrlo es necesario identificar y caracterizar tanto los factores ambientales como los genéticos, de cada enfermedad particular. Con respecto al entorno, podemos fácilmente adquirir detalles sobre el mismo mediante un seguimiento del paciente (mejor si es prolongado en el tiempo). Para estimar el riesgo genético es necesario analizar el ADN del individuo buscando determinadas variantes genéticas de interés. </p>
<h2>Los estudios GWAS al rescate</h2>
<p>¿Y cómo se descubren las variantes que modulan el riesgo genético? La comunidad científica identifica las variantes asociadas al riesgo genético mediante los llamados estudios GWAS (Genome Wide Association Studies), o estudios de asociación genética de todo el genoma. Estos análisis se basan en obtener el espectro de variación genética de <a href="https://pubmed.ncbi.nlm.nih.gov/28892059/">amplias cohortes de pacientes e individuos sanos.</a> Idealmente, de <a href="https://pubmed.ncbi.nlm.nih.gov/19369657/">varias decenas de miles de individuos</a>. </p>
<p>Posteriormente, se analizan, una por una, todas las variantes que han sido determinadas como de interés (normalmente, presentes en al menos un 1% de la población, lo que se denomina variación común). Y a continuación se estudia su asociación con la enfermedad. </p>
<p>Esto último se lleva a cabo mediante un test estadístico que comprueba si la variante es más o menos frecuente de lo que cabría esperar en un escenario en el que la variante fuera neutra. Dichos estudios son la base para el cálculo del riesgo genético de nuevos individuos. Para un nuevo sujeto, el riesgo genético se calcula entonces como la suma ponderada de las contribuciones particulares de cada variante detectada en el GWAS. </p>
<p>Suena complejo, pero no lo es tanto. Una de las dificultades de los GWAS es que requieren grandes cohortes de pacientes con un diagnóstico clínico dilucidado por parte de neurólogos especialistas en la enfermedad. </p>
<p>En este sentido, en España existen consorcios bien establecidos, como el consorcio DEGESCO (<a href="https://ciberned.es/proyectos/degesco.html">Dementia Genetics Spanish Consortium</a>), conformado por más de 20 hospitales de todo el territorio. DEGESCO ha sido capaz de incluir miles de muestras genéticas de pacientes con distintas enfermedades neurodegenerativas, incluyendo la enfermedad de Alzheimer, la demencia frontotemporal o el párkinson. Esto convierte a nuestro país en uno de los más implicados en grandes estudios genómicos para descubrir las bases biológicas de estas enfermedades.</p>
<h2>¿Cómo se usa la Inteligencia Artificial en el diagnóstico de estas enfermedades?</h2>
<p>Este modelo de enfermedad compleja que mencionamos arriba, en el que cada mutación interviene en el riesgo de manera independiente del resto, tiene sus ventajas e inconvenientes. Recordemos que todos los modelos son incorrectos. Pero algunos son útiles. Y en este caso, la ventaja principal de éste es que el combinar las mutaciones de manera aditiva para obtener el riesgo es fácil de entender y transmitir al paciente. Por lo tanto, son muy útiles para los genetistas y los médicos. </p>
<p>Sin embargo, también tiene una desventaja importante. Hay evidencias de que muchas de las variantes identificadas en estudios GWAS no actúan independientemente unas de otras. Más bien trabajan juntas a través de un proceso denominado epistasis. No tener esto en cuenta conlleva inevitablemente añadir un error no despreciable en el modelo cuando calcula el riesgo. Pero entonces, ¿por qué no se considera la epistasis en los estudios GWAS? La razón es simple. Existe una limitación metodológica que tiene que ver con que modelarla requeriría un número de sujetos tan grande que haría inviable el estudio.</p>
<p>La buena noticia es que el <em>machine learning</em> está cogiendo impulso últimamente como herramienta alternativa a los métodos estadísticos. Técnicas con nombres anglosajones como <em>random forest</em>, <em>extreme gradient boosting</em> o <em>deep learning</em> se posicionan como una opción atractiva y competitiva en muchos ámbitos. Particularmente, en el campo de la genética y el riesgo genético, permite tener en cuenta tanto la contribución de variantes individuales como la de interacciones entre esas variantes. </p>
<p>Ahora bien, recordemos que, por mucho que un modelo de <em>machine learning</em> pueda hacer un buen trabajo, el riesgo genético es solamente una parte de la ecuación. Una estimación del riesgo con aplicaciones prácticas requiere, además, tener en consideración variables como la edad, la medicación o los hábitos de los pacientes.</p>
<h2>El caso particular del párkinson</h2>
<p>Tomemos, por ejemplo, el caso de la enfermedad de Parkinson a edades avanzadas. El último estudio GWAS, en el que participamos los autores de este artículo, identificó <a href="https://www.biorxiv.org/content/10.1101/388165v1">hasta 90 variantes diferentes en el genoma humano</a> asociadas con el riesgo de padecer la enfermedad. Y sabemos que esto no para aquí. Es de esperar que ese conjunto de variantes sea más grande a medida que se añaden más personas al estudio y se mejoran las técnicas de detección y tratamiento de las variantes en el ADN. </p>
<p>¿Dónde está el límite entonces? Determinadas estimaciones sugieren que la carga genética del Parkinson está cerca del 30%. Es decir, hasta casi un tercio del riesgo total de padecerlo podría calcularse simplemente buscando en nuestro ADN. Esto es muy interesante ya que abre nuevas puertas a la creación de instrumentos de apoyo al diagnóstico temprano. Tan solo usando ADN, podríamos pronosticar párkinson hasta con un 80% de precisión. Cantidad a todas luces insuficiente para automatizar el diagnóstico. Sin embargo, es lo bastante interesante como para plantearse utilizar asistentes software que ayuden a los médicos a la toma de decisiones a la hora de priorizar casos o elegir los mejores tratamientos personalizados. </p>
<p>Parece indiscutible que la inteligencia artificial mejorará la atención al conjunto de las enfermedades neurodegenerativas.</p><img src="https://counter.theconversation.com/content/143480/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.</span></em></p>
El alzhéimer y el párkinson son enfermedades de alta prevalencia pero sumamente complejas. Por suerte, es posible usar herramientas basadas en la inteligencia artificial para ayudar en el diagnóstico.
Juan A. Botía, Catedrático de Ciencias de la Computación e Inteligencia Artificial, Departamento de Ingeniería de la Información y las Comunicaciones, Universidad de Murcia
Jordi Clarimon, Investigador principal de la Unidad Genética de Enfermedades Neurodegenerativas, Hospital de la Santa Creu i Sant Pau
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/131492
2020-02-19T20:42:25Z
2020-02-19T20:42:25Z
¿Deben los gobiernos poner límites a la inteligencia artificial?
<figure><img src="https://images.theconversation.com/files/315342/original/file-20200213-11005-mfvfo2.jpg?ixlib=rb-1.1.0&rect=10%2C0%2C6964%2C4778&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/businessmen-holding-looking-mini-robots-surrounded-1048845596">IR Stone/Shutterstock</a></span></figcaption></figure><p>La Comisión Europea ha publicado esta semana el <a href="https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en"><em>Libro Blanco sobre Inteligencia Artificial</em></a>, donde recoge los retos y los beneficios que ofrece esta tecnología. Entre otras cuestiones, plantea una serie de restricciones al uso de reconocimiento facial en espacios públicos, pues puede vulnerar los derechos de los ciudadanos.</p>
<p>La inteligencia artificial representa una oportunidad de progreso social similar a la revolución industrial o la implementación de los primeros computadores. Sin embargo, también puede representar el fin de muchas de las libertades que la sociedad ha disfrutado hasta ahora. </p>
<p>Esta tecnología nos ha brindado maravillosas aplicaciones, como la detección temprana de cáncer, la educación personalizada o la optimización del consumo energético. Pero también otras aterradoras, como la generación de vídeos ficticios de personas reales, la identificación de una persona a través de una simple foto o la creación de soldados cibernéticos. ¿Cómo <a href="https://www.ceps.eu/ceps-publications/artificial-intelligence-ethics-governance-and-policy-challenges">controlar el avance de una tecnología</a> que tiene potencial para tanto bien y mal?</p>
<h2>Límites éticos</h2>
<p>La película <a href="https://www.filmaffinity.com/es/film660421.html"><em>Minority Report</em></a> ya nos presentaba un mundo futurista en el que podíamos predecir cuándo se iba a cometer un crimen para evitarlo. Un universo que puede no ser tan lejano, teniendo en cuenta las aplicaciones actuales de la inteligencia artificial para predecir las probabilidades de delinquir y para identificar personas a través de cámaras de vídeo.</p>
<p>La película planteaba el conflicto ético de condenar a alguien por algo que todavía no había hecho: ¿y si la predicción está equivocada?</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=337&fit=crop&dpr=1 600w, https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=337&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=337&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/315339/original/file-20200213-11000-i9oi5e.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La película <em>Minority Report</em> plantea dilemas éticos de la inteligencia artificial.</span>
</figcaption>
</figure>
<p>Las preguntas sobre límites éticos y científicos históricamente asociadas a las vías biosanitarias o de las ciencias sociales se han trasladado también a la inteligencia artificial. Tradicionalmente, los comités de ética han sido los encargados de aprobar las investigaciones que podían desarrollarse. </p>
<p>Mientras que los límites en otros contextos se encuentran más claramente definidos, el rápido avance de la inteligencia artificial los está haciendo muy borrosos. ¿Dónde está la línea que separa una aplicación de la inteligencia artificial positiva para la sociedad de una que afecta a la libertad y privacidad de los ciudadanos? </p>
<h2>Estableciendo las fronteras</h2>
<p>Esta cuestión se encuentra en la intersección de múltiples disciplinas, como la filosofía, la privacidad, la ética y la seguridad. Por eso, deberán ser <a href="https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence">comités multidisciplinares de expertos</a> a nivel europeo los que sienten las bases del tipo de sociedad en la que queremos convertirnos en unas décadas. </p>
<p>Estas decisiones pueden trasladarse a los investigadores a través del tipo de proyectos que se financian en convocatorias competitivas y ser reguladas a través de los comités de ética de cada institución investigadora. </p>
<p>Por su parte, los estados deberán de aplicarlas en sus programas nacionales, una cuestión que puede surgir cuando tengan que tomar decisiones sensibles en competencias de seguridad ciudadana o defensa. </p>
<blockquote>
<p>“La tecnología es un siervo útil, pero un amo peligroso”. </p>
<p><strong>Christian Lous Lange, Premio Nobel de la Paz.</strong></p>
</blockquote>
<p>Introducir programas para evaluar las iniciativas de inteligencia artificial implementadas a gran escala y situar a la sociedad en el centro de estas aplicaciones serán dos claves fundamentales para que no generen rechazo y nos desviemos del camino correcto. </p>
<p>La línea establecida no debe ser inamovible, y deberá revisarse de forma periódica conforme la investigación y las aplicaciones de la inteligencia artificial vayan evolucionando y se pueda analizar el impacto que tienen sobre la sociedad.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=434&fit=crop&dpr=1 600w, https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=434&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=434&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=545&fit=crop&dpr=1 754w, https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=545&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/315683/original/file-20200217-11011-rof36i.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=545&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Requisitos para una IA fiable que deben ser aplicados durante todo su ciclo de vida.</span>
<span class="attribution"><a class="source" href="https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai">'Directrices éticas para una IA fiable'/Grupo de Independiente de Expertos de Alto Nivel Sobre Inteligencia Artificial/CE</a></span>
</figcaption>
</figure>
<h2>El papel de la ciudadanía</h2>
<p>Estas directrices podrán guiar el tipo de propuestas que se plantean e implementan en las instituciones públicas y privadas, pero, ¿se debe controlar aquello que ya está al alcance del ciudadano medio? </p>
<p>La democratización de la tecnología esta permitiendo al ciudadano utilizar en ambientes domésticos herramientas que antes solo eran accesibles para científicos.</p>
<p>El documental de Netflix <em>Unnatural Selection</em> refleja esta tendencia al mostrar cómo algunas personas adquieren kits para realizar edición genética en casa con <a href="https://theconversation.com/crispr-la-edicion-genetica-aun-no-esta-preparada-para-tratar-a-pacientes-107148">CRISPR</a>. Plantea así la problemática de establecer los límites éticos de otra tecnología que tiene potencial para tantos beneficios sociales, pero que también puede utilizarse para jugar a ser <em>dioses</em>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/WIIVh7H6nvI?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Tráiler de <em>Unnatural Selection</em></span></figcaption>
</figure>
<p>Antes se necesitaban superordenadores que ocupaban habitaciones enteras para recopilar datos a gran escala. Ahora, gracias a los avances de la inteligencia artificial y de otros campos, basta con el ordenador de un usuario medio y la información públicamente accesible en Internet. </p>
<p>Aunque una bomba también se puede fabricar en casa fácilmente, no es una práctica muy común en la sociedad. La mayoría conocemos sus posibles fines dañinos. Por eso, también en el caso de la IA, las instituciones educacionales a todos los niveles y divulgadores tendrán el papel fundamental de educar y concienciar socialmente sobre dónde se encuentran los límites. Es importante que centren su discurso en los posibles beneficios para evitar el rechazo social y las aplicaciones que generen conflictos éticos.</p>
<h2>Mirando hacia el futuro</h2>
<p>Como cualquier otra tecnología, la inteligencia artificial no es perversa o bondadosa en sí misma. Son las aplicaciones que los humanos le damos las que dictan su posible impacto positivo o negativo en la sociedad. </p>
<p>No podemos retrasar más las discusiones necesarias para establecer los límites y determinar cuáles son las direcciones correctas para avanzar. Por eso <a href="https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai">la Comisión Europea ya se ha puesto en marcha</a>.</p>
<p>En materia de reconocimiento facial o generación automática de contenido, si no se establecen pronto unos límites éticos, correremos el riesgo de no saber diferenciar lo que proviene del mundo real de lo generado por una máquina.</p><img src="https://counter.theconversation.com/content/131492/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>José A. Ruipérez Valiente no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>
No podemos retrasar más las discusiones necesarias para establecer los límites y determinar la dirección correcta en la que avanzar en materia de IA.
José A. Ruipérez Valiente, Investigador Juan de la Cierva, Universidad de Murcia
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/120356
2019-07-31T20:04:15Z
2019-07-31T20:04:15Z
Inteligencia Artificial: En el corazón de la encrucijada
<figure><img src="https://images.theconversation.com/files/286009/original/file-20190729-43153-gv5b0o.jpg?ixlib=rb-1.1.0&rect=5%2C0%2C1991%2C1250&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.lauraperez.net/">Telos / Laura Pérez</a></span></figcaption></figure><p>La inteligencia artificial es una etiqueta compleja que tiende a generalizarse para aludir a cualquier capacidad mediante la que las máquinas pueden realizar tareas consideradas propiamente humanas. Se trata de un sintagma poliédrico en el que se suman fenómenos como el reconocimiento, la transcripción y la reproducción de la voz humana y los sonidos, del procesamiento del lenguaje y su generación, de la visión artificial y del reconocimiento automatizado de imágenes o de la voz, entre otros. </p>
<p>A todos ellos se añaden conceptos que salpican los artículos e informes de últimas tendencias, como el <em>machine learning</em> o <a href="https://es.wikipedia.org/wiki/Aprendizaje_autom%C3%A1tico">aprendizaje automático</a>, y el <em>deep learning</em> o <a href="https://es.wikipedia.org/wiki/Aprendizaje_profundo">aprendizaje profundo</a> basado en la emulación de los sistemas del cerebro y la construcción de redes neuronales.</p>
<p>Estos términos confluyen mezclados con los datos a través múltiples formas: <a href="https://es.wikipedia.org/wiki/Macrodatos"><em>big data</em></a>, <a href="https://es.wikipedia.org/wiki/An%C3%A1lisis_de_datos"><em>data analytics</em></a>, <a href="https://es.wikipedia.org/wiki/Visualizaci%C3%B3n_de_datos"><em>data visualization</em></a>, <a href="https://es.wikipedia.org/wiki/Ciencia_de_datos"><em>data science</em></a> y <a href="https://es.wikipedia.org/wiki/Inteligencia_empresarial"><em>business intelligence</em></a>, que hacen dificultoso, en muchos casos, vislumbrar sus usos y posibles aplicaciones en el mundo real y especialmente aclarar todos estos conceptos a la sociedad, poco versada en tecnología pero muy preocupada por cuestiones éticas, regulatorias, de privacidad y de transformación digital en todos los ámbitos.</p>
<p>Aunque el concepto de inteligencia artificial suena reciente, las tecnologías subyacentes a esta etiqueta llevan ya más de seis décadas en desarrollo. Hemos de remitirnos a 1950 para recordar la figura de <a href="https://es.wikipedia.org/wiki/Alan_Turing">Alan Turing</a>, que en su <a href="https://www.csee.umbc.edu/courses/471/papers/turing.pdf">artículo</a> <em>Computing Machinery and Intelligence</em>, planteaba la pregunta: “¿Pueden las máquinas hablar como los hombres?”.</p>
<h2>El Test de Turing</h2>
<p>El Test de Turing sentó las bases del juego de la imitación de la máquina al hombre y pretendía analizar cuándo la máquina confundiría al ser humano emulando sus capacidades lingüísticas. Sobre los avances realizados en los años 50 de la mano de científicos como <a href="https://es.wikipedia.org/wiki/Marvin_Minsky">Marvin Minsky</a> –fundador del Laboratorio de Inteligencia Artificial del <em>Massachusetts Institute of Technology</em> (MIT)– se han construido y mejorado muchos de los algoritmos que están en la base de nuestros sistemas de procesamiento de datos.</p>
<p>Sin embargo, la historia de la inteligencia artificial y de la tecnología aplicada al lenguaje ha estado llena de altibajos. Tras la revolución de Turing, los años dorados de la primera etapa se extendieron hasta 1975, época en la que los sistemas de procesamiento se basaban en algoritmos de reglas fundamentados sobre lógica, para pasar después a un invierno de silencio provocado por los límites del <em>hardware</em>, que volvería a gozar de auge a partir de los años 80 con la introducción del concepto de sistemas expertos.</p>
<p>Un segundo invierno llegó a finales de los años 80 y no ha vuelto a despertar hasta comienzos del presente siglo, pues con el cambio de milenio parece haber resucitado la moda de la inteligencia artificial. ¿Por qué?</p>
<p>Realmente no hay una sola razón sino la conjunción de varios factores que hacen que, para muchos, el actual sea el momento propicio de invertir, desarrollar y transformar la industria gracias a la transformación digital.</p>
<p>El primer revulsivo es la propia tecnología, pues nos encontramos en un momento en que las exponenciales mejoras, tanto a nivel de <em>software</em> –potencia y variedad de algoritmos, cantidad de código abierto u <em>open-source</em>, comunidades amplias de desarrollo…–, como de <em>hardware</em> –creación de máquinas potentes con unidades de procesamiento capaces de asumir la potencia de las multiplicidad de procesos en paralelo que requieren las redes neuronales–, han hecho posible que los procesos de analítica de datos que antes duraban horas, incluso días, arrojen resultados en tiempo real, utilizando espacios minúsculos y a muy bajo coste al alcance de cualquier usuario y desarrollador.</p>
<p>El segundo factor es la cantidad de datos masivos generados exponencialmente, de los cuales se calcula que un porcentaje de entre el 80 por ciento y el 90 por ciento no están estructurados. En 1992 el tráfico diario mundial de Internet era de 100 Gigabit/día y en 2015 ha pasado a ser de 15.000 millones de GB por día. Para 2020 se esperan alcanzar unos 44 zetabytes de datos diarios y, sin embargo, la realidad es que la mayoría de los datos que se producen no se analizan y los no estructurados –como el lenguaje– no se procesan.</p>
<p>Las tecnologías del <a href="https://es.wikipedia.org/wiki/Procesamiento_de_lenguajes_naturales">Procesamiento del Lenguaje Natural</a> (PLN) podrían, en muchos casos, utilizarse para transformar estos datos no estructurados de tipo lingüístico en conocimiento y obtener valor añadido gracias a la clasificación, extracción y entendimiento de la información, que permitirán alcanzar las expectativas que el fenómeno del <em>big data</em> comenzó a prometer hace unos años.</p>
<p>Hay que añadir además un tercer factor, que es la proliferación de artefactos digitales, las denominadas “nuevas plataformas IoT (<em>internet of things</em> o <a href="https://es.wikipedia.org/wiki/Internet_de_las_cosas">internet de las cosas</a>)”, que permiten a los usuarios interactuar constantemente con sus teléfonos inteligentes u ordenadores, pero mediante interfaces que en muchos casos van más allá de las tradicionales pantallas y se activan mediante la voz, como la <a href="https://es.wikipedia.org/wiki/Tecnolog%C3%ADa_vestible">tecnología ponible</a> (<em>wearables</em>).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=790&fit=crop&dpr=1 600w, https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=790&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=790&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=992&fit=crop&dpr=1 754w, https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=992&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/286012/original/file-20190729-43145-15kjt0j.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=992&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
<span class="attribution"><a class="source" href="https://www.lauraperez.net/">TELOS / Laura Pérez</a></span>
</figcaption>
</figure>
<h2>Tecnologías del lenguaje</h2>
<p>Las tecnologías del lenguaje se están convirtiendo en una de las áreas de mayor potencial dentro de la inteligencia artificial, gracias a su combinación con los sistemas tradicionales de Procesamiento del Lenguaje Natural basado en reglas.</p>
<p>Los algoritmos de PLN permiten lograr que la máquina interprete el texto más allá de una secuencia de caracteres binarios, convirtiéndolos en palabras, mediante procedimientos de <a href="https://es.wikipedia.org/wiki/Lematizaci%C3%B3n">lematización</a> y <a href="https://es.wikipedia.org/wiki/Stemming"><em>stemming</em></a> (agrupación de palabras de una misma raíz eliminando variantes de singular, femenino, tiempos verbales…), detección de estructuras sintácticas y funcionalidad de las palabras en la frase (POS o <a href="https://es.wikipedia.org/wiki/Categor%C3%ADa_gramatical"><em>Part of Speech</em></a>), desambiguación e identificación de referencias anteriores en el texto (en demostrativos, pronombres relativos, etcétera), y clasificación semántica utilizando diccionarios especializados (<a href="https://es.wikipedia.org/wiki/WordNet"><em>wordnets</em></a>).</p>
<p>Para que estos funcionen, es necesario acompañarlos de una serie de librerías, gramáticas y diccionarios digitales asociados a cada lengua, que permiten que rápidamente el ordenador pueda codificar los términos existentes en un texto. </p>
<p>Entre los diferentes tipos de diccionarios, caben destacar también los denominados “corpus de polaridad”, que definen cada una de las palabras asociándolas a su carga semántica positiva o negativa, operación básica para poder detectar el proceso conocido como “análisis de sentimiento” que tan frecuentemente se utiliza en análisis de redes sociales –por ejemplo, para hacer minería de opinión en los debates políticos– o para medir la satisfacción de los clientes tras recibir un servicio. </p>
<p>Además de las reglas, otra de las técnicas que se ha empleado desde los años 80 es la aplicación de estadística al análisis lingüístico digital para detectar patrones y realizar inferencias a partir de los mismos. Estos sistemas funcionan en el momento que hay suficientes datos que permitan visibilizar la repetición de patrones mediante técnicas sencillas como el cómputo por frecuencia de palabras. </p>
<p>Nos encontramos ante un momento muy relevante en el que la inteligencia artificial y el lenguaje confluyen en el epicentro del debate, pues la eclosión de interfaces de voz en dispositivos, como los coches autónomos o los asistentes virtuales, ha creado la necesidad de mejora y de incorporación de los mismos a nuestro día a día, cuya funcionalidad es entender el lenguaje humano, procesarlo e interactuar en forma de voz y <em>chatbots</em> y asistentes virtuales como Alexa, Echo, Siri o Cortana.</p>
<h2>Una gran brecha</h2>
<p>Aunque a día de hoy, el mercado de la inteligencia artificial y específicamente de las tecnologías del lenguaje está dominado por las grandes empresas procedentes del mundo angloparlante –en el que las <a href="https://en.wikipedia.org/wiki/Big_Four_tech_companies">GAFAs</a>: Google, Amazon, Facebook y Apple se baten con la competencia asiática para ostentar el liderazgo, y esto sin contar la gran competencia que se nos acerca por el sudeste asiático–, observamos que existe una gran brecha entre las soluciones angloparlantes y el resto de las lenguas, en un ámbito en el que en español son comparativamente mucho más débiles –menos de un 30 por ciento de facturación a pesar de ser el segundo idioma más hablado del mundo– y con un mercado muy fragmentado, tanto en empresas tecnológicas como en soluciones específicas aplicadas a la industria.</p>
<p>Nos encontramos en un momento de oportunidad, en el que algunos países de América Latina cuentan con grupos científicamente muy potentes que desarrollan soluciones competitivas en tecnologías del lenguaje de relevancia mundial, pero cuya implementación aún tendrá que realizar una importante transferencia al tejido empresarial para poder competir con uno de los grandes activos que puede ser el catalizador de nuestra competitividad en el ámbito de la inteligencia artificial: nuestra lengua, el español.</p>
<hr>
<p><em>La versión <a href="https://telos.fundaciontelefonica.com/telos-111-cuaderno-la-voz-elena-gonzalez-blanco-inteligencia-articial-tecnologias-lenguaje-en-el-corazon-de-la-encrucijada/">original</a> de este artículo fue publicada en la <a href="https://telos.fundaciontelefonica.com/">Revista Telos</a>, de Fundación Telefónica.</em></p>
<hr><img src="https://counter.theconversation.com/content/120356/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Elena Gonzalez-Blanco es directora general para Europa de Coverwallet. Este trabajo se ha realizado gracias al apoyo del Proyecto de Investigación “Poetry Standardization and Linked Open Data: POSTDATA” (ERC-2015-STG-679528), financiado por la Comisión Europea y dirigido por la autora. <a href="http://www.postdata.linhd.es">www.postdata.linhd.es</a>.
</span></em></p>
La inteligencia artificial abarca numerosos y complejos conceptos. Una de las partes más significativas de esta disciplina son las tecnologías del lenguaje, que han avanzado notablemente en los últimos años, si bien aún están lejos de superar la capacidad comunicativa del ser humano.
Elena González-Blanco, Associate Professor at IE, IE University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/120018
2019-07-24T21:38:39Z
2019-07-24T21:38:39Z
Este asistente robótico facilita la vida a personas dependientes y sus cuidadores
<figure><img src="https://images.theconversation.com/files/283566/original/file-20190710-44472-6qzxm3.jpg?ixlib=rb-1.1.0&rect=7%2C251%2C4931%2C2976&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/isg-uah/37463959406/in/album-72157685872428622/">ISG-UAH/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>El sistema de teleasistencia LARES permite la detección inteligente de emergencias en el hogar. Combina robótica, sensores e inteligencia artificial para mejorar la autonomía de las personas dependientes.</p>
<p>LARES propone, mediante sensores distribuidos por el hogar, un robot y técnicas de <em>machine learning</em>, un modelo de teleasistencia pasivo en el que la persona dependiente no tiene que interactuar con el sistema. Es el propio sistema el que detecta las emergencias y contacta con los servicios de asistencia.</p>
<p>En general, los sistemas de teleasistencia tradicionales consisten en un aparato telefónico con altavoz conectado con un botón de alarma que el dependiente utiliza en forma de collar para poder contactar con los servicios de emergencia desde cualquier punto de su hogar.</p>
<p>El problema con esta solución es que las personas dependientes son reacias a utilizar el collar, bien por rechazo psicológico al percibirlo como un estigma que visualiza su dependencia, o bien por olvido, por la propia acción de algunas enfermedades como el alzhéimer. Es por ello que los sistemas de dependencia activos no son tan fiables como es requerido. </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/6cSWPd1M_pA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Vídeo explicativo de LARES.</span></figcaption>
</figure>
<h2>¿Como surge el proyecto?</h2>
<p>LARES, desarrollado por el <a href="http://isg.aut.uah.es/">Grupo de Sistemas Inteligentes (GSI)</a> de la Universidad de Alcalá (GSI-UAH), surge para poner al servicio de la sociedad la investigación en inteligencia artificial y robótica de nuestro equipo, desarrollada gracias a la financiación de la Agencia Espacial Europea, la Junta de Comunidades de Castilla-La Mancha y la Iniciativa de Empleo Juvenil del Fondo Social Europeo.</p>
<p>Garantizar la calidad de vida de las personas dependientes exige el trabajo de cuidadores, ya sean profesionales o familiares. El día a día de estas personas que lidian con la dependencia puede tener impactos negativos en su calidad de vida. En los peores casos, esta labor puede llegar a causar estrés crónico y provocar el trastorno conocido como síndrome del cuidador. </p>
<p>En el GSI hemos querido aportar soluciones tecnológicas a esta situación basándonos en la teleasistencia.</p>
<h2>¿Cómo funciona?</h2>
<p>LARES es un sistema de teleasistencia compuesto por una red de sensores conectados de manera inalámbrica y distribuidos por las habitaciones del hogar. Estos sensores monitorizan datos como la temperatura, humedad, luminosidad o presencia de personas en cada habitación y envían la información a un robot autónomo. </p>
<p>La persona dependiente puede, además, llevar un reloj que detecta caídas y avisar a los servicios de urgencias si es necesario.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=288&fit=crop&dpr=1 600w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=288&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=288&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=362&fit=crop&dpr=1 754w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=362&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=362&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Esquema del funcionamiento de LARES.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>El robot integra algoritmos de <em>machine learning</em> capaces de aprender los patrones de comportamiento de la persona dependiente usando la información recopilada de los sensores (incluido el reloj). En caso de detectar anomalías, el robot puede desplazarse de forma autónoma hasta la habitación donde se haya detectado la emergencia gracias a técnicas de inteligencia artificial. </p>
<p>Los servicios de asistencia pueden controlar al robot y establecer una conexión de vídeo y audio bidireccional a través de internet, facilitando la evaluación de la situación en tiempo real.</p>
<p>Gracias a este funcionamiento, el sistema LARES puede responder de forma más efectiva y eficiente a emergencias en el hogar de personas dependientes sin que estas tengan que realizar acción alguna. </p>
<p>Además, observar en tiempo real la situación en la vivienda permite que los servicios de asistencia movilicen a los profesionales de emergencia en caso necesario. Se reduce así el tiempo de respuesta, el estrés de los familiares y cuidadores y, como objetivo principal, se mejora la independencia de las personas dependientes en su hogar.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=800&fit=crop&dpr=1 600w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=800&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=800&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1005&fit=crop&dpr=1 754w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1005&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1005&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Sistema de teleasistencia LARES.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/isg-uah/37463959406/in/album-72157685872428622/">ISG-UAH/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>Estado de LARES</h2>
<p>El prototipo inicial de LARES <a href="https://www.sciencedirect.com/science/article/pii/S1389041718302870">se ha desplegado</a> en dos casas para brindar servicios de teleasistencia a dos personas mayores dependientes con diferentes perfiles y necesidades.</p>
<p>• El primer caso de estudio es un hombre de 75 años con necesidades de supervisión que vive solo. Le gusta la tecnología y usualmente utiliza ordenadores. Sufre una enfermedad que afecta a su sistema motor, haciéndolo altamente vulnerable a las caídas. </p>
<p>• El segundo caso de estudio es una mujer de 86 años que vive con un cuidador profesional. No le gusta la tecnología y nunca ha usado ordenadores o teléfonos móviles. Sufre la enfermedad de Alzhéimer en la fase VI (de las VII fases) y requiere supervisión y ayuda continuas. </p>
<p>Gracias a la recogida y el procesamiento de datos, hemos detectado cuadros de insomnio en ambos ancianos y, en el caso del varón, se registró un problema con la calefacción. Los resultados obtenidos y las apreciaciones de estos usuarios servirán para perfeccionar el sistema de teleasistencia.</p><img src="https://counter.theconversation.com/content/120018/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Maria Dolores Rodríguez Moreno recibe fondos de la Junta de Comunidades de Castilla-La Mancha, la Agencia Espacial Europea y del Fondo Social Europeo a través del Programa Operativo de Empleo Juvenil y la Iniciativa de Empleo Juvenil.</span></em></p><p class="fine-print"><em><span>Pablo Muñoz Martínez ha recibido fondos de la Agencia Espacial Europea a través del programa NPI. </span></em></p>
El sistema de teleasistencia LARES combina el uso de sensores, técnicas de inteligencia artificial y un robot autónomo para monitorizar y detectar emergencias en el hogar de personas dependientes.
Maria Dolores Rodríguez Moreno, Catedrático de Universidad. Área: Inteligencia Artificial, Universidad de Alcalá
Pablo Muñoz Martínez, Investigador postdoctoral en el Grupo de Sistemas Inteligentes, Universidad de Alcalá
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/114763
2019-05-20T20:20:50Z
2019-05-20T20:20:50Z
Se busca traductor automático infalible
<figure><img src="https://images.theconversation.com/files/274427/original/file-20190514-60567-1k60z7a.jpg?ixlib=rb-1.1.0&rect=8%2C0%2C5982%2C3988&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/london-england-jan-07-2019-google-1277859448?src=cLzdEKD17-5vKb3q0Y-zow-1-92">Arseniy Shemyakin Photo/Shutterstock</a></span></figcaption></figure><p>En el mundo se hablan miles de idiomas y dialectos, lo que constituye una barrera importante en la comunicación entre personas, administraciones y empresas. La <a href="https://es.wikipedia.org/wiki/Traducci%C3%B3n_autom%C3%A1tica">traducción automática</a> (<em>machine translation</em> en inglés) es una herramienta imprescindible que permite reducir dicha barrera, ya que posibilita la traducción de textos y voz en dispositivos electrónicos. </p>
<p>Aunque las cifras varían según las fuentes, el tamaño del mercado de la traducción en el mundo podría superar <a href="http://www.statmt.org/mtm14/uploads/Main/IntroductionMT_MTM2014.pdf">los 12 mil millones de dólares</a> al año. Por otra parte, el número de empresas que dan servicios de traducción superan las tres mil.</p>
<p>El concepto de la traducción automática viene de antiguo, pero hasta la segunda mitad del siglo pasado no se materializa en sistemas funcionales. Los primeros sistemas estuvieron basados en la transferencia a los computadores del conocimiento que poseen los humanos sobre traducción. Este conocimiento se representaba en forma de reglas. La construcción de tales sistemas era un proceso costoso en todos los sentidos. </p>
<h2>Traductores a partir de datos</h2>
<p>A finales de la década de los 80 se propone una aproximación basada en la construcción automática de traductores a partir de conjuntos existentes de traducciones (corpora bilingües). En esta aproximación se utilizaban técnicas de aprendizaje automático (<em>machine learning</em>) y, concretamente, técnicas estadísticas para construir los correspondientes modelos. Esto dio lugar a lo que se conoce como <a href="https://es.wikipedia.org/wiki/Traducci%C3%B3n_autom%C3%A1tica_estad%C3%ADstica">traducción automática estadística</a> (<em>statistical machine translation</em>). </p>
<p>Estos modelos utilizan probabilidades para relacionar palabras o secuencias de palabras con sus posibles traducciones. Aunque esta idea tampoco era nueva, la propuesta de modelos muy sofisticados y la potencia de los computadores de la época permitieron construir traductores automáticos muy competitivos. De hecho, la calidad de las traducciones era equivalente o mejor que la de los sistemas existentes y con un coste de desarrollo muy inferior. </p>
<p>Pero los sistemas así construidos presentaban un problema importante: la necesidad de disponer de corpora bilingües de un cierto tamaño. Por otra parte, los traductores obtenidos solo eran adecuados para el dominio del corpus utilizado. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/275125/original/file-20190517-69174-1myrq3o.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Es más difícil conseguir corpora bilingües de lenguas minoritarias.</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/foreign-languages-translation-concept-online-translator-340405046?src=dn3J5--x1zIKFEz0rSPg4A-1-3">Cybrain/Shutterstock</a></span>
</figcaption>
</figure>
<p>En esa época también se propusieron otras técnicas. Una de ellas basada en modelos de estados finitos, otra en redes neuronales (<a href="https://ddd.uab.cat/pub/tradumatica/tradumatica_a2017n15/tradumatica_a2017n15p66.pdf"><em>neural machine translation</em></a>) simples y una tercera en memorias de traducción (<em>translation memories</em>). Esta última técnica estaba basada en el almacenamiento de un gran número de traducciones y el proceso consistía en buscar la frase almacenada más parecida a la que se quería traducir. En las empresas de servicios de traducción, esta técnica es muy utilizada sola o en combinación con traductores estadísticos o los basados en reglas.</p>
<h2>Presente y futuro: las redes neuronales</h2>
<p>En la actualidad, una evolución de los modelos basados en redes neuronales constituye lo último en tecnología para la traducción automática. Esta evolución se debió a la aparición de modelos neuronales muy sofisticados en el marco del aprendizaje profundo (<em>deep learning</em>). El éxito de estos modelos también se debió a que era posible acceder a dispositivos con una gran potencia de cálculo y con un coste aceptable. </p>
<p>Todo ello ha permitido que la traducción automática basada en esta tecnología sea utilizada ampliamente con éxito por las industrias de la traducción. Además, este tipo de sistemas está detrás de muchos de los traductores automáticos que se encuentran en páginas web muy conocidas y a los que se pueden acceder de forma gratuita. </p>
<p>Por otra parte, y gracias a la existencia de conjuntos de herramientas de desarrollo abiertas, las empresas pueden construir traductores automáticos de alta calidad con un esfuerzo humano limitado. Esto es posible siempre que se disponga de corpora bilingües suficientemente grandes. Una vez más, este hecho constituye un importante problema en muchas ocasiones, ya que para muchos pares de lenguas no existen tales corpora o son pequeños.</p>
<h2>Supervisión humana</h2>
<p>En muchos casos, los traductores automáticos basados en redes neuronales generan traducciones de una calidad suficiente. Sin embargo, cuando se requieren traducciones de alta calidad, las empresas suelen utilizar los traductores automáticos para generar frases que, posteriormente, son <a href="http://www.upv.es/noticias-upv/noticia-5447-casmacat-es.html">corregidas y revisadas por traductores humanos</a>. Este proceso es conocido como postedición y tiene un coste muy inferior a la traducción realizada desde un principio por humanos. </p>
<p>Una alternativa a la postedición consiste en hacer colaborar al traductor humano y al automático dentro de un proceso interactivo. En este caso, el humano hace correcciones que el sistema puede aprovechar para generar nuevas y posiblemente mejores traducciones. Esta técnica, conocida como traducción interactiva-predictiva, permite mejorar la productividad gracias a la componente automática y, al mismo tiempo, garantizar la calidad de las traducciones gracias a la intervención humana, pero con un menor esfuerzo.</p>
<p>En estos escenarios interactivos, las nuevas traducciones corregidas pueden utilizarse para mejorar los modelos subyacentes en los traductores automáticos. Para ello se utilizan técnicas de adaptación y concretamente de aprendizaje en línea (<em>online learning</em>). </p>
<p>Otro aspecto interesante es la posibilidad de que el traductor humano utilice otros medios además del teclado y el ratón. Ejemplos de estos medios pueden ser la voz, el lápiz electrónico, pantallas táctiles, imágenes o dispositivos de seguimiento de la mirada. Estos medios complementarios permitirán reducir el esfuerzo humano necesario para generar traducciones de calidad.</p>
<h2>La traducción automática hoy y mañana</h2>
<p>En resumen, hoy en día la traducción automática de textos es una herramienta útil, ampliamente utilizada tanto por las empresas que dan servicios de traducción como por el público en general. No obstante, hay que ser conscientes de que con muchas aplicaciones no se pueden conseguir traducciones de alta calidad sin asistencia. </p>
<p>El futuro cercano de la traducción parece estar caracterizado por el uso de grandes corpora bilingües y monolingües y de computadores potentes. También es necesario llevar a cabo una investigación de nuevas arquitecturas de redes neuronales y de nuevos algoritmos de aprendizaje. Tampoco hay que olvidar que la traducción del habla (<em>speech translation</em>) puede ser una realidad práctica en un futuro próximo. Actualmente existen algunos sistemas comerciales, pero se requiere más I+D para que realmente sean útiles.</p><img src="https://counter.theconversation.com/content/114763/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Francisco Casacuberta ha recibido fondos de la Comisión Europea, de diversos Ministerios de España y de la Generalitat Valenciana</span></em></p>
Los traductores automáticos actuales, basados en redes neuronales, todavía no son perfectos: necesitan de la supervisión humana para producir traducciones de alta calidad.
Francisco Casacuberta, Catedrático del Centro de Investigación Pattern Recognition and Human Language Technology, Universitat Politècnica de València
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/112241
2019-02-27T22:04:06Z
2019-02-27T22:04:06Z
Soy un robot humanoide que sabe pintar, planchar y comunicarse en lengua de signos
<figure><img src="https://images.theconversation.com/files/260831/original/file-20190225-26177-eq1y10.JPG?ixlib=rb-1.1.0&rect=0%2C0%2C4608%2C3442&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">El robot humanoide TEO.</span> <span class="attribution"><a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span></figcaption></figure><p>Los robots humanoides acostumbramos a que se escriba sobre nosotros, mas en rara ocasión acostumbramos a hablar sobre nosotros mismos. ¡Esta es una de ellas! Soy un robot asistencial que está <a href="https://www.mdpi.com/2079-9292/8/1/57">aprendiendo a hablar lengua de signos</a> y que, con este artículo, asiste a la comunidad académica e investigadora en la difusión de los avances de los robots de mi naturaleza.</p>
<p>Mi nombre es TEO, no como aquel entrañable <a href="https://es.wikipedia.org/wiki/Teo_(personaje)">personaje pelirrojo</a> de los libros infantiles, sino en referencia a <em>Task Environment Operator</em> o, en castellano, Operador en el Entorno de las Tareas. Aunque TEO es mi nombre de pila, algunos investigadores prefieren llamarme RH-2, en referencia a la posición que ocupo en la estirpe de humanoides que surgió con mi abuelo, RH-0, hace ya 15 años —la vida del robot humanoide medio no es larga, el ritmo de los avances científicos y tecnológicos nos mantienen en constante transformación— <a href="http://roboticslab.uc3m.es/roboticslab/robot/teo-humanoid">en la Universidad Carlos III de Madrid</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=150&fit=crop&dpr=1 600w, https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=150&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=150&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=189&fit=crop&dpr=1 754w, https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=189&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/260783/original/file-20190225-26184-10wincm.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=189&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">El robot humanoide TEO, representando su nombre en la Lengua de Signos Española.</span>
<span class="attribution"><span class="source">Robotics Lab/UC3M</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<h2>Trabajo y aficiones</h2>
<p>Es comprensible que te preguntes qué tipo de tareas lleva a cabo un humanoide como yo o a qué entorno hace referencia mi nombre. ¡Sencillo! Me encargo de todas aquellas labores que puedan hacer la vida más cómoda y liberar tiempo del día a día a mis compañeros humanos en el hogar. Puedo planchar, doblar ropa, servir comida y hasta me he aventurado a pintar en estos últimos años. </p>
<p>Aprender distintas formas de comunicación es fundamental de cara a una integración más efectiva de los robots en la sociedad. Por este motivo estoy aprendiendo, además, la Lengua de Signos Española (LSE) con ayuda de los científicos de <a href="http://roboticslab.uc3m.es/roboticslab/">Robotics Lab</a>. </p>
<p>¿Sabías que en España alrededor de 13300 personas emplean la lengua de signos para comunicarse? Dado que las <a href="http://www.ine.es/jaxi/Datos.htm?path=/t15/p418/a2008/hogares/p01/modulo1/l0/&file=01009.px">cifras estadísticas del INE</a> apuntan a que en nuestro país impera una media de 2,5 personas por hogar —estos estadistas y su tendencia a partir a las personas por la mitad—, conocer esta lengua me acerca a prestar ayuda a más de 5000 familias. ¡Por eso decidimos ponernos manos a la obra!</p>
<h2>Así aprendo la lengua de signos</h2>
<p>No es fácil imaginar cómo puede un robot aprender lengua de signos. Es un proceso de lo más interesante que envuelve inteligencia artificial, redes neuronales, visión artificial y unas increíbles manos robóticas sub-actuadas. El proceso que sigue mi equipo para enseñarme a signar se puede resumir del siguiente modo:</p>
<ol>
<li><p>En primer lugar, un ser humano instructor me indica, a través de una simulación, cómo colocar las falanges de mis dedos para representar determinados signos. El tiempo que se invierte en esta fase de mi aprendizaje es bastante extenso, pero merece la pena. ¡Nunca olvido lo que aprendo! </p></li>
<li><p>En segundo lugar, se tiene en cuenta que mis falanges no funcionan exactamente igual que las humanas para idear una adaptación de los movimientos a mi mano robótica. El objetivo es que queden parecidos y, sobre todo, naturales. Se prueban varios tipos de redes neuronales para que modelen esta adaptación y, así, elegir aquella que logre hacer los gestos de forma comprensible para las personas que se comunican con la lengua de signos.</p></li>
<li><p>Por último, la colaboración de individuos sordos es fundamental para aceptar o rechazar un modelo de lengua de signos representado. Esta última fase es lo que, en el laboratorio, llamamos fase de validación. ¡Los avances en la ciencia se construyen entre todos!</p></li>
</ol>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=263&fit=crop&dpr=1 600w, https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=263&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=263&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=330&fit=crop&dpr=1 754w, https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=330&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/260983/original/file-20190226-150688-1mzcmra.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=330&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Comparación entre el signo en simulación y el generado por uno de los tres tipos de redes neuronales utilizadas.</span>
<span class="attribution"><span class="source">Robotics Lab/UC3M</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<h2>Así funcionan las redes neuronales</h2>
<p>Si no estás familiarizado con el campo de la robótica y la inteligencia artificial, es normal que aún tengas dudas acerca de cómo funciona mi proceso de aprendizaje. </p>
<p>El aprendizaje para nosotros, los robots, funciona de forma similar que para los seres humanos, pero no exactamente del mismo modo. En líneas muy generales, podemos aprender:</p>
<ul>
<li>De forma supervisada, cuando trabajamos con preguntas y respuestas y nos encargamos de desarrollar ciertas predicciones y relaciones entre ellas.</li>
<li>De forma no supervisada, cuando solo nos dan las preguntas y nosotros tratamos de predecir las respuestas.</li>
<li>Por refuerzo, modo en el que aprendemos en base a los premios que nos dan al responder correctamente ciertas preguntas. </li>
</ul>
<p>Entre otras muchas formas. ¡El mundo del aprendizaje automático es realmente complejo y fascinante! </p>
<p>Para mi aprendizaje de lengua de signos, se han usado tres tipos de redes neuronales a modo de generadores de signos. Dos de los generadores están entrenados de manera supervisada y el tercero involucra autosupervisión variacional, basada en una técnica novedosa de aprendizaje llamada <em>autoencoder</em> variacional. Mediante estos generadores, las posiciones de las falanges situadas por el instructor se traducen en comandos motores para que yo pueda usar mis manos para comunicarme de la mejor manera posible.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=377&fit=crop&dpr=1 600w, https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=377&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=377&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=474&fit=crop&dpr=1 754w, https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=474&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/260995/original/file-20190226-150694-1smapio.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=474&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Personas que usan la lengua de signos han validado el trabajo de TEO.</span>
</figcaption>
</figure>
<h2>Los resultados de mi aprendizaje</h2>
<p>¡Los resultados obtenidos mediante estas técnicas han sido prometedores! Los signos generados mediante estas técnicas han producido en torno a un 80% de respuestas positivas de reconocimiento de signos entre los participantes en la fase de validación. Es decir: cuatro de cada cinco veces, los usuarios entendían lo que quería decirles.</p>
<p>Esto es una gran noticia para la comunidad de personas sordas, para la robótica, para mí y para mi equipo, formado por los investigadores Jennifer J. Gago, Bartek Łukawski, Juan G. Víctores y Carlos Balaguer. Especialmente, considerando que este proyecto se encuentra en una fase incipiente de desarrollo. </p>
<h2>Desarrollos futuros</h2>
<p>En la actualidad, estamos evaluando algunas cuestiones necesarias para conseguir una representación de la lengua de signos absolutamente eficaz, como la importancia de las expresiones faciales. </p>
<p>Mi deseo es que en un futuro próximo pueda contribuir a facilitar ciertos aspectos tediosos de la vida cotidiana a todas las personas que lo necesiten o lo deseen. Para ello, seguimos y seguiremos trabajando con vehemencia tanto en aspectos de interacción humano-robot, como en la mejora y ampliación de las tareas que soy capaz de desarrollar. Sin más que agregar, me despido con una de las frases que más me inspiran en mi proceso de aprendizaje y mejora:</p>
<p>“<em>Hay una sola luz en la ciencia y, alumbrarla en cualquier lugar, es alumbrarla en todos los lugares.</em>” — Isaac Asimov.</p><img src="https://counter.theconversation.com/content/112241/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.</span></em></p>
El robot humanoide TEO está aprendiendo a hablar la lengua de signos gracias a las redes neuronales y la colaboración de personas sordas.
Jennifer J. Gago Muñoz, Investigadora en el Laboratorio de Robótica, Universidad Carlos III
Juan G. Victores, Profesor en el Laboratorio de Robótica, Universidad Carlos III
Licensed as Creative Commons – attribution, no derivatives.