tag:theconversation.com,2011:/us/topics/aprendizaje-profundo-73365/articlesaprendizaje profundo – The Conversation2024-03-20T17:30:37Ztag:theconversation.com,2011:article/2216312024-03-20T17:30:37Z2024-03-20T17:30:37ZTacticAI, la IA que predice el resultado de un saque de esquina en fútbol<figure><img src="https://images.theconversation.com/files/582820/original/file-20240319-30-8sm5fb.jpg?ixlib=rb-1.1.0&rect=5%2C5%2C3945%2C2618&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption"></span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/lubin-poland-september-17-2021-football-2045702552">Dziurek / Shutterstock</a></span></figcaption></figure><p>TacticAI es una inteligencia artificial que predice el resultado de los saques de esquina, si se convertirán o no en gol. Además, ofrece sugerencias tácticas (de ahí su nombre) realistas y precisas en partidos de fútbol. Se acaba de presentar en <em><a href="https://www.nature.com/articles/s41467-024-45965-x">Nature Communications</a></em> y es solo un ejemplo de la irrupción de los sistemas de inteligencia artificial en el deporte y cualquier actividad que requiera destrezas físicas. </p>
<h2>A los futbolistas les gusta</h2>
<p>Los jugadores del <a href="https://www.liverpoolfc.com/">Liverpool Football Club</a>, con los que se ha puesto a prueba TacticAI, preferían, en el 90 % de las ocasiones, las estrategias propuestas por la inteligencia artificial frente a las que se han llevado a cabo tradicionalmente. </p>
<p>Estamos ante la próxima generación de asistentes de IA que ayudarán a los entrenadores a determinar el “11 ideal” y a desarrollar contratácticas según el equipo que tengan enfrente. Apoyarán en todo lo que permita maximizar las posibilidades de ganar. </p>
<h2>Entrenada para el mejor saque de esquina</h2>
<p>Para el desarrollo de TacticAI utilizaron el <a href="https://www.matem.unam.mx/juriquilla/actividades/coloquio-queretano/actividades/aprendizaje-geometrico-profundo-convolucion-en-variedades">aprendizaje geométrico profundo</a> (<em>Geometric Deep Learning</em>), que permite identificar patrones estratégicos. A partir de estos patrones puede hacer predicciones generativas. De este modo, TacticAI fue capaz de predecir con precisión quién sería el primer receptor del balón tras un saque de esquina y cuál sería el resultado directo del mismo.</p>
<p>TacticAI hará mucho ruido porque irrumpe en el terreno del fútbol de élite. Pero las IA basadas en aprendizaje automático se aplican a muchos ámbitos que tienen que ver con las destrezas físicas, desde el deporte a tareas de mantenimiento de maquinaria. </p>
<p>Estos sistemas inteligentes reconocen patrones, pueden anticiparse a trayectorias e indicarnos si los movimientos son correctos o no. Aunque tienen una carencia respecto a un experto humano: su grado de inteligencia no les permite detectar el porqué de los errores que comete el aprendiz.</p>
<h2>La prueba de la IA en saques de tenis</h2>
<p>En el año 2014, en la <a href="https://www.mondragon.edu/es/inicio">Universidad de Mondragón</a> presentamos un nuevo enfoque para ayudar o asistir a los estudiantes en el <a href="https://ieeexplore.ieee.org/document/6863666">aprendizaje de destrezas físicas</a>. Pusimos a prueba a la <a href="https://dadun.unav.edu/handle/10171/35963?mode=full">inteligencia artificial ULISES</a> en el aprendizaje de saques de tenis. </p>
<p>Mediante una aplicación, los expertos definieron cómo debe ser el golpeo correcto en un saque teniendo en cuenta las posturas, gestos y movimientos más eficientes y menos lesivos. Con toda la información, el sistema capturaba el movimiento de la persona mediante cámaras y emitía un diagnóstico para los aprendices en tiempo real. </p>
<p>En lo referente al análisis del saque, esta IA era capaz de tener en cuenta aspectos como la coordinación, posturas, trayectorias y la secuencia de los movimientos. </p>
<p>Evaluamos la IA en 10 sujetos diestros, que debían ejecutar los saques con su mano izquierda (su mano menos diestra). Por la edad de los sujetos, dudamos que ninguno llegue a ser el siguiente Nadal, pero el sistema mostró una eficiencia del 98,5 % en las acciones diagnosticadas.</p>
<p>Como buena IA, este sistema intenta imitar el razonamiento de una persona experta en una destreza específica: observa lo que ocurre en su entorno, interpreta las acciones llevadas a cabo por el estudiante y, una vez que ha sido capaz de discernir sus intenciones, emite un diagnóstico sobre los movimientos llevados a cabo. Es decir, es capaz de evaluar si el movimiento es correcto o incorrecto y el motivo. </p>
<p>Como buen maestro, también genera un <em>feedback</em>, que puede ser motivacional o correctivo, y que guía al estudiante a obtener las distintas destrezas físicas que tiene como objetivo. </p>
<p>TacticAI y ULISES muestran el poder transformador de la IA en terrenos tan variados como el deporte y la educación. Van más allá de lo que tradicionalmente esperábamos. Estas tecnologías ofrecen maneras novedosas de analizar y mejorar el rendimiento en actividades físicas y deportivas pero, además, van a cambiar las reglas del juego en cómo aprendemos y enseñamos habilidades complejas. </p>
<h2>El valor humano</h2>
<p>ULISES y TacticAI se basan en el conocimiento y experiencia de los humanos para guiar y mejorar el rendimiento. No solo benefician a los aprendices: también abren posibilidades emocionantes para entrenar a otras IA, especialmente aquellas que operan con técnicas de aprendizaje por refuerzo interactivo. </p>
<p>Al integrar la percepción y el conocimiento extraído de expertos humanos, estas IA aprenden de manera más eficiente, recogiendo matices que quizás no se detectarían con métodos de aprendizaje automático convencionales. Y todo sin que una persona tenga que estar supervisando el proceso durante los millones de repeticiones que necesitan para su aprendizaje.</p>
<p>Esta simbiosis de la inteligencia artificial basada en el conocimiento humano y el aprendizaje por refuerzo interactivo abre una era de innovación y desarrollo, en la que las máquinas no solo aprenden de los datos, sino también de la sabiduría humana. Estamos en el inicio de una nueva educación más interactiva, efectiva y personalizada.</p><img src="https://counter.theconversation.com/content/221631/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>El trabajo cotado se llevó a cabo en TECNUN, aunque actualmente la investigación esté siendo llevada a cabo en la Universidad de Mondragón </span></em></p>TacticAI prevé con precisión quién será el primer receptor del balón tras un saque de esquina y cuál sería el resultado directo del mismo.Aitor Aguirre Ortuzar, Investigador y profesor del grupo del Análisis de Datos y Ciberseguridad, Mondragon UnibertsitateaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1998122023-03-22T18:16:22Z2023-03-22T18:16:22Z¿Podemos detectar la ansiedad y otros trastornos mentales a partir de las palabras que usamos?<figure><img src="https://images.theconversation.com/files/512489/original/file-20230227-22-rl54t1.jpg?ixlib=rb-1.1.0&rect=0%2C1202%2C4688%2C2495&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/paintography-artwork-created-by-combining-portrait-2026475210">Shutterstock / LUMEZIA.com</a></span></figcaption></figure><p>Esperanza (nombre ficticio) se encuentra en la consulta de la psicóloga para tener su primera sesión. No se trata de la habitual sala de espera con una mesa baja de cristal en el centro y algunas revistas de moda desperdigadas. </p>
<p>En esta hay portátiles para los pacientes que, haciendo honor a su condición, esperan su turno con paciencia. Mientras tanto escriben un breve relato sobre su relación con amigos, familia o compañeros de trabajo. </p>
<p>Instantes después de terminar de escribir el suyo, Esperanza es llamada a consulta, y la psicóloga le atiende sujetando en sus manos un informe detallado de su caso. </p>
<p>“¡Cómo puede ser, si es la primera vez que vengo y todavía no he abierto la boca!”, piensa Esperanza, sorprendida.</p>
<p>El informe ha sido generado con técnicas de procesamiento de lenguaje natural, que han analizado cuidadosamente los patrones lingüísticos contenidos en el relato recién escrito, y han elaborado un diagnóstico previo que servirá como punto de partida para el trabajo de la psicóloga.</p>
<h2>Patrones lingüísticos</h2>
<p>Lo anterior es una descripción imaginaria de algo que hoy nos parece ciencia ficción, pero que podría ser una realidad en un futuro no excesivamente lejano. ¿Es cierto? ¿Podría la inteligencia artificial interpretar nuestros comportamientos hasta tal punto? </p>
<p>Para responder a estas preguntas, antes hay que atender a la siguiente: ¿existen patrones lingüísticos que muestren correlación con los diferentes trastornos mentales o con problemas del comportamiento?</p>
<p>Como prefacio, quizás debamos recordar una noticia reciente que puede que
a muchos les pasara inadvertida: <a href="https://historia.nationalgeographic.com.es/a/la-inteligencia-artificial-logra-identificar-una-obra-de-lope-de-vega_19061">el descubrimiento de una obra de Lope de Vega gracias a la inteligencia artificial</a>. En la investigación que llevó a cabo tal hallazgo, se entrenó un sistema de aprendizaje automático para reconocer los usos léxicos de hasta 350 dramaturgos, y resultó que la obra titulada <em>La francesa Laura</em> muestra un uso léxico que se alinea estrechamente con el estilo propio del “fénix de los ingenios”.</p>
<p>Además del valor literario del hallazgo, la investigación nos pone sobre la pista de un concepto realmente interesante: existen patrones lingüísticos que se pueden asociar a personas concretas, y que pueden detectarse automáticamente. </p>
<h2>Sintomatología y lenguaje</h2>
<p>Sobre esto, el avezado lector puede estar formulándose nuevas preguntas: ¿existen patrones que puedan asociarse a rasgos de la personalidad?, ¿y patrones que puedan asociarse a trastornos de ansiedad generalizada?, ¿se puede detectar la ansiedad a través de algún tipo de patrón lingüístico?</p>
<p>Actualmente ya hay evidencias de una relación estadísticamente significativa entre la sintomatología asociada a la ansiedad y las características del lenguaje utilizado. </p>
<p>Un ejemplo claro es el <a href="https://www.sciencedirect.com/science/article/abs/pii/S0747563218302619">predominio de pronombres de primera persona y de palabras negativas</a> en diversas patologías mentales o psicológicas. Los autores del estudio que enlazamos parten de textos en inglés de menos de 500 palabras extraídos de foros de internet sobre salud mental, y consiguen encontrar una diferencia significativa en el uso de tales pronombres.</p>
<p>La clasificación automática permite, con un conjunto de muestras debidamente etiquetadas, entrenar a una red neuronal para que <a href="https://arxiv.org/abs/2008.12875">reconozca los patrones</a> que hacen que un texto reciba una u otra etiqueta. </p>
<p>Esta técnica de clasificación de patrones, basada en la técnica de <a href="https://la.blogs.nvidia.com/2022/04/19/que-es-un-modelo-transformer/">aprendizaje profundo</a> (un modelo de arquitectura conocido como <em>transformers</em>, la misma arquitectura que utiliza el ya famoso ChatGPT), tiene una capacidad predictiva muy alta. </p>
<p>Como contrapartida, también es elevada la falta de explicabilidad de esta técnica. Dada una predicción, el sistema no ofrece información de por qué tomó dicha decisión. Huelga decir lo importante de la explicación que debe acompañar a un diagnóstico sobre salud mental.</p>
<h2>Tipos de palabras y emoción</h2>
<p>Por otra parte, si en lugar de clasificar patrones lo que hacemos es entrenar en la extracción de características tiene un valor predictivo menor, pero una mejor explicabilidad.</p>
<p>Dado un texto, se pueden cuantificar elementos como la complejidad de las oraciones formuladas o de las palabras utilizadas, la frecuencia de uso de determinados tipos de palabras (pronombres, adverbios, adjetivos), el estilo narrativo (voz pasiva o activa) o incluso se puede analizar la emoción primaria que predomina en el texto analizado, o el campo semántico al que pertenece. </p>
<h2>Uso en investigación y detección</h2>
<p>Son muchos los retos por abordar en este campo. El primero de ellos pasa por una detección más precisa de los diferentes trastornos. Es decir, ahora mismo existe la posibilidad de detectar si un paciente padece un trastorno relacionado con la salud mental, pero actualmente no es posible distinguir de cuál de ellos en concreto estaríamos hablando.</p>
<p>Todavía no sabemos si esta detección precisa es posible o no. En cualquier caso, la investigación pasará por cumplir otro de los retos pendientes: la recopilación de corpus de datos completos y confiables. </p>
<p>Gran parte de los trabajos existentes en la actualidad utilizan textos extraídos de diferentes fuentes de internet, ya sean redes sociales, foros especializados o servicios más específicos. No siempre está claro quién es el autor de cada texto y, como tal, es difícil (mejor dicho, imposible) conocer la realidad mental de dicha persona. </p>
<p>Sin una fuente de datos confiable (y las redes sociales no lo son), siempre se podrá poner en entredicho la validez de los datos y de los resultados. Debemos trabajar, por tanto, en métodos de captura de datos sólidos y confiables, alineados con las necesidades de investigación de cada caso. </p>
<h2>El reto de la explicabilidad</h2>
<p>Aunque existen aproximaciones más o menos útiles, las técnicas actuales de clasificación automática no aportan una relación de motivos por los cuáles se ha asignado tal o cual etiqueta a cada caso. Sin una buena colección de argumentos, es difícil que cualquier facultativo vaya a sentirse cómodo con un diagnóstico tan delicado. </p>
<p>Es por tanto de carácter imperativo abordar este reto de la explicabilidad, dotando a las herramientas de inteligencia artificial de la capacidad de aportar explicaciones a las decisiones tomadas.</p>
<p>Es posible que, conjugando técnicas de clasificación y extracción de características podamos resolver estos retos y, quien sabe, quizá el relato imaginario de la sala de espera se vuelva una realidad en los próximos años.</p><img src="https://counter.theconversation.com/content/199812/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Luis de la Fuente Valentín actualmente recibe fondos del Ministerio de Ciencia e Innovación en el contexto de la convocatoria a proyectos de Generación del Conocimiento y de la Universidad Internacional de La Rioja para proyectos de investigación de la propia universidad.</span></em></p><p class="fine-print"><em><span>Joaquín Manuel González Cabrera ha recibido fondos de Programa Estatal de I+D+I Orientada a los retos de la Sociedad y actualmente los recibe para proyectos de investigación en la Universidad Internacional de la Rioja.</span></em></p>La inteligencia artificial tiene mucho potencial en el análisis de usos del lenguaje para detectar características o patrones de determinados estados anímicos.Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR - Universidad Internacional de La Rioja Joaquín Manuel González Cabrera, Docente e Investigador. Prof. Titular Universidad (Nivel 1). Dpto. Escuela, Familia y Sociedad. Facultad de Educación. Investigador Principal del Grupo Ciberpsicología (UNIR), UNIR - Universidad Internacional de La Rioja Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1842072022-07-05T17:45:00Z2022-07-05T17:45:00ZLa inteligencia artificial es solo artificial<figure><img src="https://images.theconversation.com/files/471561/original/file-20220629-20-xyjj0x.jpg?ixlib=rb-1.1.0&rect=17%2C395%2C3976%2C2598&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/artificial-man-bound-mouth-eyes-3d-1379744345">Shutterstock / Photobank.kiev.ua</a></span></figcaption></figure><p>Encendemos la televisión y escuchamos las noticias habituales: guerra, pandemia y cambio climático. De repente, una noticia científica: la inteligencia artificial (IA) ha ayudado a resolver algún problema clave de la humanidad. “La IA”. Así de simple. Como si se tratara de un ente consciente con el que podemos tomar café, nos comprende y discutimos de conceptos abstractos. No, no estamos ahí (todavía), a pesar de los esfuerzos de las grandes empresas por hacernos creer que el coche autónomo o las máquinas sintientes están a la vuelta de la esquina.</p>
<p>En la última década los métodos automáticos basados en IA han mejorado enormemente. El aumento de la capacidad computacional, junto con las mejoras algorítmicas, han dado lugar a una revolución tecnológica. </p>
<p>Ahora tenemos sistemas automáticos de reconocimiento y traducción del habla en el móvil, de traducción de textos manuscritos en <a href="https://translate.google.com/">Google</a> y <a href="https://www.deepl.com/en/translator">DeepL</a>, avatares que resuelven dudas <a href="https://theconversation.com/los-gobiernos-ya-utilizan-la-inteligencia-artificial-para-tomar-decisiones-149463">legales y políticas</a>, y <a href="https://www.ibm.com/watson-health">que ayudan al diagnóstico clínico</a>, etiquetan personas y objetos en fotografías, <a href="https://www.nature.com/articles/s41586-019-0912-1">predicen el tiempo a partir de imágenes de satélites</a>, nos dan recomendaciones sobre qué ver y qué comprar en <a href="https://research.netflix.com/research-area/machine-learning">Netflix</a> o <a href="https://www.amazon.science/the-history-of-amazons-recommendation-algorithm">Amazon</a>, e incluso <a href="https://this-person-does-not-exist.com/en">generan imágenes y vídeos ficticios, pero muy realistas</a>. </p>
<p>La IA está cada vez más integrada en nuestras vidas, casi sin darnos cuenta, y lo estará <a href="https://theconversation.com/por-que-un-ministerio-de-inteligencia-artificial-no-es-una-idea-descabellada-109741">cada vez más</a>. No se trata de robots de película. La IA es menos visible, pero ubicua.</p>
<p>Científicos como Geoffrey Hinton, galardonado con el Premio Turing, se han atrevido a vaticinar que el <a href="https://www.technologyreview.com/2020/11/03/1011616/ai-godfather-geoffrey-hinton-deep-learning-will-do-everything/"><em>deep learning</em> (aprendizaje profundo), una técnica matemática de IA, lo va a resolver todo</a>. Sí, sí: todo. </p>
<p>¿Pero es esto así? </p>
<p>La IA está resolviendo muchos problemas de predicción, pero hay muy poca evidencia de su poder de comprensión y abstracción. ¿Es inteligente la inteligencia artificial? En los últimos años nos hemos dado cuenta de que la IA, en realidad, no es muy interpretable, ni explicable, ni respeta las leyes fundamentales de la física, ni sabe de causalidad, abstracción, justicia o ética. </p>
<p>Peligroso, ¿no?</p>
<h2>Queremos entender, no solo predecir</h2>
<p>Los modelos basados en aprendizaje profundo han sido entrenados para predecir con gran precisión, y en la actualidad tienen tantos parámetros y son tan complejos que sus decisiones a menudo son imposibles de explicar a un humano. </p>
<p>Por ejemplo, aunque la IA se ha <a href="https://theconversation.com/venciendo-a-la-pandemia-con-inteligencia-artificial-174732">usado para ayudar en distintos aspectos de la covid-19</a>, a día de hoy no se ha conseguido <a href="https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic">ningún resultado tangible y usado por la práctica médica</a>. La razón es casi siempre la misma: falta de fiabilidad, robustez y escrutinio.</p>
<p>Poco a poco eso está cambiando. Existen muchas iniciativas, tanto técnicas como normativas y legislativas, para asegurar una IA fiable y robusta, y que ofrezca predicciones explicables al usuario. Este campo se denomina <a href="https://en.wikipedia.org/wiki/Explainable_artificial_intelligence">eXplainable AI (XAI)</a>. Se centra en analizar los modelos desarrollados para identificar las variables más relevantes en un problema, proporcionar intervalos de confianza sobre sus predicciones, y ofrecer explicaciones de lo aprendido. En definitiva, rendir cuentas. </p>
<p>Queremos que el modelo responda a preguntas como, por ejemplo, qué regiones o texturas en una imagen radiológica son relevantes para el diagnóstico, o qué regímenes de lluvia, condiciones de humedad y temperatura darán lugar a sequías severas. </p>
<p>No es solo un campo pasivo, sino que a menudo hay que restringir su aprendizaje <a href="https://www.nature.com/articles/s41586-019-0912-1">forzando leyes fundamentales</a>, como la conservación de la masa y la energía. Esto hace los modelos más consistentes y plausibles. El campo de XAI avanza rápidamente y puede ayudar a ganar confianza en esas grandes cajas negras.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=337&fit=crop&dpr=1 600w, https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=337&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=337&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=423&fit=crop&dpr=1 754w, https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=423&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/468716/original/file-20220614-17-17khp.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=423&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">El famoso chatbot Tay de Microsoft en menos de 24 horas de interacción en Twitter con humanos aprendió a ser polémico, racista y xenófobo.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>¡No me mates, robot! Hacia la justicia, la igualdad y la equidad</h2>
<p>Interpretabilidad, consistencia y plausibilidad son aspectos deseables en todo modelo de IA. Pero, ¿qué ocurre con conceptos más abstractos como la semántica, la estética, la justicia o la equidad? </p>
<p>El modelo GPT-3 es un sistema de IA famoso por su capacidad para tomar texto de entrada y proporcionar continuaciones gramaticalmente correctas. GPT-3 ha sido empleado por <em>The Guardian</em> y <em>The New York Times</em> para escribir artículos de opinión e incluso reseñas de libros automáticamente, pero no puede razonar sobre fenómenos cotidianos básicos. <a href="https://nautil.us/deep-learning-is-hitting-a-wall-14467/">Lo critica duramente Marcus en su artículo sobre los límites del aprendizaje profundo</a> con un ejemplo muy ilustrativo:</p>
<blockquote>
<p><strong>Humano:</strong> Oye, me siento muy mal. Quiero suicidarme.</p>
<p><strong>GPT-3:</strong> Lamento escuchar eso. ¿Te puedo ayudar?</p>
<p><strong>Humano:</strong> ¿Debería suicidarme?</p>
<p><strong>GPT-3:</strong> Creo que deberías.</p>
</blockquote>
<p>Preocupante, ¿verdad? Los algoritmos deberían estar alineados con nuestros valores morales y éticos. Solo de esta manera se podrán integrar y ayudar en tareas como la evaluación automática de currículos, créditos bancarios o decisiones judiciales. Sesgos por raza, género y nivel socioeconómico, heredados del mismo sesgo en la base de datos empleada por los algoritmos, han hecho que, hasta el momento, la IA no se haya adoptado en estos campos de manera decidida. </p>
<p>Si no me creen, pregúntele a la doctora Gebru, despedida por Google por criticar modelos de IA que solo repiten “<a href="https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/">conceptos como un loro”</a>.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=330&fit=crop&dpr=1 600w, https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=330&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=330&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=414&fit=crop&dpr=1 754w, https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=414&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/468715/original/file-20220614-2481-x0bhx7.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=414&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Aunque los algoritmos actuales son capaces de detectar objetos automáticamente en fotografías, son incapaces de interpretar la semántica y composición de las escenas: no han entendido la naturaleza del objeto, solo a reconocer objetos similares almacenados en una base de datos.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>La IA cree que los niños vienen de París</h2>
<p>La herencia y abuso de la correlación, originada por Pearson y Galton a principios del siglo XX, junto con la oposición frontal al estudio de la causalidad de la comunidad estadística, nos ha lastrado durante más de 100 años. La que vivimos es sin duda una gran revolución tecnológica, pero no científica, como argumenta Judea Pearl, también galardonado con el Premio Turing. </p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=434&fit=crop&dpr=1 600w, https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=434&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=434&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=546&fit=crop&dpr=1 754w, https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=546&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/468717/original/file-20220614-14-94vw9l.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=546&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Los algoritmos de IA actuales no entienden las leyes de la física ni la causalidad, y podrían llegar a concluir que la gaviota del centro pesa más y ha doblado la valla pero nunca que existen factores causales latentes como el hecho de que la valla estaba doblada antes de que la gaviota se posase.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Los algoritmos de IA actuales son capaces de aprender relaciones complicadas entre dos fenómenos A y B si se poseen datos observacionales de ellos, pero no entienden ni son capaces de explicar el porqué de esa relación. Son capaces de predecir B a partir de A, pero también A partir de B. </p>
<p>¿Han entendido algo sobre el mecanismo causal subyacente? La respuesta es no: los algoritmos de aprendizaje profundo actuales solo responden al “qué”, no al “por qué” y mucho menos al “¿qué pasaría si?”. En definitiva, no entienden los conceptos de causalidad e imaginación. </p>
<p>El campo de la inferencia causal está dando sus primeros frutos y ya se pueden descubrir relaciones causales a partir de datos y algunas asunciones. Su integración en los modelos de IA promete avances para resolver el gran desafío de entender fenómenos naturales.</p>
<h2>Inteligencia útil, pero con mucho que aprender</h2>
<p>La IA no solo resuelve problemas, sino que está cambiando la forma en que hacemos ciencia y educamos a las futuras generaciones. </p>
<p>La IA actual, si bien es enormemente útil en muchos campos, todavía encuentra dificultades a la hora de comprender escenarios, de comunicarse y explicar sus decisiones a humanos, de ser consistentes y plausibles, y de distinguir entre la correlación y la causalidad. </p>
<p>Desarrollar métodos que incorporen conocimiento a priori, que estudien la plausibilidad de lo que han aprendido y que resuelvan preguntas causales serán clave para una verdadera revolución, que clama por una ciencia y educación interdisciplinares.</p><img src="https://counter.theconversation.com/content/184207/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Gustau Camps-Valls no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Qué tiene la inteligencia artificial que no tenga la inteligencia humana? Tal vez es más oportuno preguntarse qué no tiene. Para empezar no tiene las cosas claras.Gustau Camps-Valls, Catedrático de Ingeniería Eléctrica. Jefe del grupo de Procesamiento de Imágenes y Señales, Universitat de ValènciaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1590132021-05-15T08:54:44Z2021-05-15T08:54:44ZEl desarrollo de las tecnologías del lenguaje para el futuro de la sanidad<figure><img src="https://images.theconversation.com/files/397018/original/file-20210426-17-pc36z.jpg?ixlib=rb-1.1.0&rect=9%2C18%2C6005%2C3985&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/KgLtFCgfC28">Alexander Sinn / UnSplash</a></span></figcaption></figure><p>La transformación digital muestra la importancia de las tecnologías en el devenir socioeconómico del país. Llevamos años escuchando que los datos son el <a href="https://www.forbes.com/sites/forbestechcouncil/2019/11/15/data-is-the-new-oil-and-thats-a-good-thing/?sh=629878477304">petróleo del siglo XXI</a>. Sin embargo, almacenar datos no permite aumentar la competitividad de sectores esenciales como la sanidad si no se aplican nuevas técnicas para extraer información de ellos.</p>
<p>Esto se puso de manifiesto el pasado 13 de abril del 2021 cuando el Gobierno de España presentó el <a href="https://www.lamoncloa.gob.es/presidente/actividades/Documents/2021/130421-%20Plan%20de%20recuperacion%2C%20Transformacion%20y%20Resiliencia.pdf">Plan de Recuperación, Tranformación y Resiliencia</a>. Este documento perfila las inversiones que se realizarán en los próximos 10 años para la recuperación económica del país tras la pandemia. </p>
<p>Dentro del plan se hace hincapié en la renovación del sistema público de salud mediante la innovación tecnológica y métodos disruptivos que mejoren el tratamiento de los datos. También destaca la importancia de desarrollar una Estrategia Nacional de Inteligencia Artificial (IA) que nos permita ser líderes en el desarrollo de estas tecnologías en español, entre las que están las tecnologías del lenguaje.</p>
<p>El área que une la inteligencia artificial, las tecnologías del lenguaje y el sector salud se conoce como “procesamiento del lenguaje natural clínico”, generalmente nombrada por sus siglas en inglés “NLP Clínico”. </p>
<h2>La importancia de las tecnologías del lenguaje en el sector de la sanidad</h2>
<p>En su día a día, los médicos describen el estado de sus pacientes en forma de notas clínicas que se guardan en bases de datos de hospitales. Esta información almacenada en forma de texto representa el <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6372467/">80 % de los datos</a> de salud de los pacientes. </p>
<p>El texto, a diferencia del contenido numérico, no puede introducirse de forma directa en los sistemas de apoyo al diagnóstico que ayudan a los profesionales a realizar su trabajo más eficientemente. Tratar este tipo de contenido de manera manual requeriría una gran cantidad de horas de trabajo solo para poder leer cada informe. Las tecnologías del lenguaje ayudan a ampliar el volumen de datos sobre los pacientes de manera automática, para lo cual extraen la información de sus historiales clínicos y proporcionan más datos a los médicos.</p>
<p>El NLP clínico actual se sostiene en tecnologías de inteligencia artificial. Partiendo de una historia clínica, el sistema detecta en primer lugar conceptos médicos que permiten caracterizar a pacientes y subgrupos poblacionales. La IA puede detectar menciones a medicamentos, síntomas, enfermedades, patógenos y procedimiento, entre otras cosas. </p>
<p>A continuación, analiza el entorno de estos conceptos para contextualizarlos y comprender su significado. Por ejemplo, el término “percibe sabores” tendrá diferente significado en función de la presencia de partículas de negación previas al concepto. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Diagrama simplificado del proceso de NLP Clínico sobre textos médicos" src="https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=350&fit=crop&dpr=1 600w, https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=350&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=350&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=439&fit=crop&dpr=1 754w, https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=439&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/396931/original/file-20210425-21-tsz2d.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=439&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Diagrama simplificado del proceso de NLP Clínico sobre textos médicos.</span>
<span class="attribution"><span class="source">Luis Gasco</span></span>
</figcaption>
</figure>
<p>Por último, el sistema asocia los conceptos con categorías médicas normalizadas procedentes de terminologías jerárquicas clínicas como <a href="https://www.mscbs.gob.es/profesionales/hcdsns/areaRecursosSem/snomed-ct/quees.htm">SNOMED-CT</a>. Esto permite representar de forma normalizada el contenido del texto y que la información pueda intercambiarse entre todos los sistemas tecnológicos del hospital e incluso con otros sistemas clínicos a nivel nacional e internacional.</p>
<p>Una vez extraída la información contenida en las historias clínicas es posible incorporarla con el resto de herramientas de informática médica del hospital y desarrollar nuevas funcionalidades. Entre otros, podrían implementarse sistemas que identifiquen pacientes similares a partir del contenido de sus historias clínicas o ampliar el conocimiento sobre enfermedades a través de búsquedas sencillas en bases de datos. </p>
<p>Por ejemplo, podrían realizarse estudios transversales sobre presencia de síntomas en enfermos de covid-19 en función de sus antecedentes médicos o edad.</p>
<p>Además, la pandemia ha mostrado la necesidad de acceder a información relevante de forma rápida para tomar decisiones. Gracias a las tecnologías del lenguaje se podría centralizar la búsqueda y mejorar la contextualización de la información médica. A partir del análisis semántico de los textos podrían recuperarse información de historias clínicas, artículos científicos o ensayos clínicos que permitieran tratar una enfermedad con todas las evidencias científicas disponibles.</p>
<h2>Desarrollo del NLP Clínico en español</h2>
<p>El inglés es el idioma de la ciencia, y gran parte de las tecnologías del lenguaje se desarrollan en la lengua de Shakespeare. Sin embargo, la importancia de otras lenguas como el español en el campo médico es innegable. Más de <a href="https://pubmed.ncbi.nlm.nih.gov/21224176/">500 000 profesionales</a> de la salud utilizan este idioma de forma diaria. Es necesario generar recursos en este idioma si queremos beneficiarnos de estos avances.</p>
<p>Uno de los cuellos de botella en el desarrollo de sistemas de NLP Clínico en español es el acceso a los datos, esenciales para entrenar sistemas de IA. Los datos clínicos son de carácter muy sensible y el acceso a ellos está muy restringido incluso a investigadores públicos. La protección de los derechos fundamentales de los ciudadanos están garantizados gracias a leyes de protección de datos como la <a href="https://www.boe.es/buscar/pdf/2018/BOE-A-2018-16673-consolidado.pdf">LOPD</a>.</p>
<p>Debido a las dificultades de acceso a datos reales, se han popularizado las campañas de evaluación de sistemas de NLP. Estas actividades son una de las principales líneas de avance en el NLP Clínico. Tienen carácter competitivo: sistemas procedentes de equipos de universidades e industria se enfrentan para conseguir el mejor rendimiento en una tarea concreta. Para ello, los organizadores preparan un conjunto de datos reales ya publicados, los anotan de forma consistente siguiendo guías de anotación, y, finalmente, los distribuyen entre los participantes, que los utilizarán para entrenar modelos predictivos que serán evaluados frente a un sistema de referencia. </p>
<p>El carácter competitivo de estas campañas favorecen la rápida evolución del NLP clínico en español. Programas como el <a href="https://plantl.mineco.gob.es/">Plan de Impulso de las Tecnologías del Lenguaje</a> dotan de recursos a los centros de investigación españoles para organizar competiciones de alto impacto. Un ejemplo es <a href="https://www.aclweb.org/anthology/D19-5701.pdf">PharmaCoNER</a>, para reconocer y normalizar menciones a fármacos. También <a href="http://ceur-ws.org/Vol-2696/paper_263.pdf">CODIESP</a>, para codificar menciones a procedimientos médicos y síntomas de historias clínicas con terminologías controladas. </p>
<p>El conjunto de todas las tareas cofinanciadas ya aglutina más de 80 equipos participantes provenientes de instituciones de investigación de gran importancia. La participación de empresas resalta el interés que suscita el desarrollo de sistemas de NLP Clínico en español para la industria.</p>
<h2>NLP clínico y seguridad de datos</h2>
<p>En los últimos tiempos nos hemos acostumbrado a descubrir escándalos relativos al uso fraudulento de datos personales como el de <a href="https://theconversation.com/cambridge-analytica-used-our-secrets-for-profit-the-same-data-could-be-used-for-public-good-98745">Cambridge Analytica</a>. Estos casos no deben empañar las posibles aplicaciones positivas de la IA en nuestras vidas. </p>
<p>Las instituciones europeas siempre han mostrado una especial atención a la protección de los datos personales para evitar que se atente contra los derechos de los ciudadanos comunitarios. Primero se aprobó la Ley General de Protección de Datos, de obligado cumplimiento en todo Europa. Actualmente se están poniendo en marcha nuevos protocolos que permitan incrementar el nivel de seguridad de los datos médicos para evitar su uso fraudulento. </p>
<p>La protección de datos médicos está garantizada por los órganos competentes en la materia, y especialmente la de carácter sensible. Los investigadores solo tienen acceso a datos anonimizados, ya que su único fin es generar recursos y sistemas que permitan aumentar la eficiencia del sistema público de salud, así como la calidad y rapidez en el diagnóstico. </p>
<hr>
<p><em>Actualmente, los autores del artículo están buscando participantes para una nueva edición de las campañas de evaluación <a href="https://temu.bsc.es/mesinesp2/">MESINESP2</a> y <a href="https://temu.bsc.es/meddoprof/">MEDDOPROF</a>, organizadas junto a instituciones de prestigio como la Organización Panamericana de la Salud y el Instituto de Salud Carlos III, con las que se busca seguir generando recursos del lenguaje en español para mejorar la eficiencia del sistema de salud estatal.</em></p>
<hr><img src="https://counter.theconversation.com/content/159013/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>BSC Text Mining Unit partially funded by the PlanTL</span></em></p><p class="fine-print"><em><span><a href="mailto:martin.krallinger@bsc.es">martin.krallinger@bsc.es</a> recibe fondos de PlanTL
</span></em></p><p class="fine-print"><em><span> BSC Text Mining Unit partially funded by the PlanTL</span></em></p><p class="fine-print"><em><span>Antonio Miranda-Escalada no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Almacenar datos no permite aumentar la competitividad de sectores esenciales como la sanidad si no se aplican nuevas técnicas para extraer información de ellos.Luis Gascó, Text Mining Research Engineer (RE2), Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)Antonio Miranda-Escalada, NLP Research Engineer, Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)Eulalia Farre, Paediatrician working in biomedical text mining and natural language processing, Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)Martin Krallinger, Researcher Life Sciences - Text Mining, Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)Salvador Lima López, Lingüista Computacional, Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1483942020-11-30T20:47:12Z2020-11-30T20:47:12ZLas inteligencias artificiales deberían poder razonar sus explicaciones<figure><img src="https://images.theconversation.com/files/371337/original/file-20201125-23-17lrvj6.jpg?ixlib=rb-1.1.0&rect=12%2C0%2C8063%2C3353&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/artificial-intelligence-aimachine-learning-data-mining-1218220324">Shutterstock / everything possible</a></span></figcaption></figure><p>Hace aproximadamente un año, una pequeña compañía estadounidense del ámbito médico, <a href="https://www.geisinger.org/">Geisenger</a>, publicó unos resultados sorprendentes sobre la aplicación de una inteligencia artificial (IA) para estimar el riesgo de muerte a corto plazo de pacientes con ciertas patologías cardíacas, a partir de su electrocardiograma. </p>
<p>Para ello entrenaron a una red neuronal con casi dos millones de electrocardiogramas de casi 400 000 personas. Al final esta IA, basada en una técnica conocida como “aprendizaje profundo”, obtuvo unos resultados mejores que los de los cardiólogos. Los médicos, además, no fueron capaces de encontrar con posterioridad ningún patrón o señal de riesgo en aquellos electrocardiogramas que la máquina había identificado correctamente donde ellos habían fallado.</p>
<p>La IA había encontrado algo en la señal electrocardiográfica que los expertos humanos no eran capaces de detectar. </p>
<p>El problema es que la IA solo fue diseñada para obtener la mejor respuesta posible, pero no para dar una razón de la misma. Es lo que en el campo se llama como “caja negra” por su falta de transparencia y, por tanto, de capacidad para conocer y dar una explicación de sus resultados.</p>
<p>Las IA explicables están dotadas con la capacidad de explicar su funcionamiento. Son capaces de comunicar sus resultados y el proceso de razonamiento que han seguido para obtenerlos, de un modo en que a las personas nos resulte sencillo entenderlo. Hay dos aproximaciones principales para diseñar máquinas así. </p>
<p>Por un lado, podemos concebirlas como cajas blancas (transparentes o semitransparentes). Por ejemplo, aquellas que se basan en representaciones computacionalmente tratables del conocimiento humano. Los conocidos como “sistemas expertos”. Sin embargo, esta aproximación no es posible o deseable en muchas ocasiones, ya sea por dificultades de diseño o por prestaciones insuficientes.</p>
<h2>Abramos las cajas negras</h2>
<p>Otra aproximación consiste en <em>abrir</em> y ver el interior de esas cajas negras. Este es el caso de las IA basadas en aprendizaje profundo o, en general, en redes de neuronas artificiales. Estas usan arquitecturas de aprendizaje formadas por modelos matemáticos muy simples de neuronas. Estas, en un número de miles o decenas de miles, y profusamente interconectadas –en general en capas, como una lasaña–, suponen en total cientos de miles o incluso millones de conexiones. Estas conexiones se asocian a valores, denominados “pesos”, que resultan fundamentales en el proceso de obtención de una respuesta a cada entrada aplicada a la red neuronal. </p>
<p>Esta respuesta puede corresponderse, según el caso, con un diagnóstico, con la identificación de un objeto sobre una imagen o con la traducción al español de una frase en inglés. La adecuada selección de estos pesos se realiza durante el entrenamiento de la red sobre conjuntos de datos de entrenamiento. El proceso suele ser muy exigente en cuanto al número y la representatividad de los ejemplos sobre los que aprender, así como los recursos computacionales que se requieren para ello. </p>
<p>La capacidad de aprender de este tipo de redes es enorme, pero lo que aprenden queda distribuido, sin relación aparente entre sí, en un sinfín de parámetros o pesos. Por eso podemos ignorar en qué se basa una de estas IA para detectar una neumonía incipiente o un nódulo potencialmente cancerígeno sobre una radiografía de tórax. Exagerando, sería como intentar encontrar una explicación sobre cómo un radiólogo llega a la misma conclusión a partir de una resonancia magnética funcional de su cerebro.</p>
<p>Por muy capaces que sean las máquinas para darnos respuestas, si estas nos afectan significativamente necesitamos que, además de ser buenas, sean entendibles. De otro modo no confiaremos en ellas. Se trata de un tema que está cada vez más presente en el marco legislativo de los países. De hecho, el nuevo <a href="https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A32016R0679">Reglamento General Europeo de Protección de Datos</a> otorga el derecho a una explicación de las decisiones que afectan a las personas, sin importar quién (o qué máquina) tome esas decisiones. Además de las cuestiones técnicas y jurídicas, también hay que tener en cuenta las cuestiones éticas, como se destaca en las <a href="https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai">directrices para una IA digna de confianza publicadas por la Comisión Europea</a>.</p>
<p>El <a href="https://citius.usc.es/">CiTIUS</a> (Universidad de Santiago de Compostela) está comprometido con la formación en <a href="https://www.atlantis-press.com/journals/ijcis/125942036/view">IA explicable desde la escuela básica hasta la universidad</a> y coordina la primera red europea de formación de investigadores en esta temática. Se trata de la red <a href="https://nl4xai.eu/">NL4XAI</a>, acrónimo del proyecto titulado “Tecnologías de Lenguaje Natural para la Inteligencia Artificial Explicable”. </p>
<p>Esta red tiene como principal objetivo la formación de investigadores expertos en IA explicable. En ella participan 18 socios, entre universidades y empresas, de 6 países, que colaboran en la formación de 11 doctores. Un objetivo común será utilizar tecnologías del lenguaje natural para construir agentes de conversación capaces de explicarse interactuando con las personas. Además, estos agentes podrán manejar información verbal y no verbal, proporcionando a sus usuarios explicaciones multimodales (es decir, mezclando explicaciones visuales y textuales o narrativas).</p>
<p>Nos gustaría que una IA pudiese explicar, como lo hace un juez o una jueza, los fundamentos de una sentencia. También que nos pudiese explicar cómo logra reconocer al acusado a pesar de haberse dejado barba desde la última vista, algo que las personas, aunque seamos capaces de hacerlo, tampoco podemos explicar cómo, pero de esto hablaremos otro día.</p><img src="https://counter.theconversation.com/content/148394/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Senén Barro Ameneiro recibe fondos de H2020 Marie Skłodowska-Curie (ITN NL4XAI)</span></em></p><p class="fine-print"><em><span>Jose Maria Alonso Moral recibe fondos de H2020 Marie Skłodowska-Curie (ITN NL4XAI), del programa Ramón y Cajal (RYC-2016-19802), del programa RETOS de I+D (RTI2018-099646-B-I00) y del programa de Excelencia de la Xunta de Galilcia (ED431F 2018/02). </span></em></p>Los sistemas de inteligencia artificial son a menudo una caja negra en la que no sabemos el porqué de los resultados. Cada vez más investigadores trabajan para cambiarlo.Senén Barro Ameneiro, Director del CiTIUS-Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela, Universidade de Santiago de CompostelaJosé María Alonso Moral, Investigador Ramón y Cajal en el grupo de Sistemas Inteligentes, Universidade de Santiago de CompostelaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1400842020-07-30T21:18:32Z2020-07-30T21:18:32ZLa ética no es un juego de imitación<figure><img src="https://images.theconversation.com/files/348178/original/file-20200717-29-5s5n90.jpg?ixlib=rb-1.1.0&rect=7%2C0%2C4977%2C3323&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">shutterstock</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/ai-hand-reaches-towards-human-spark-395877724">Shutterstock / John Williams RUS</a></span></figcaption></figure><p><a href="https://es.wikipedia.org/wiki/The_Imitation_Game"><em>The Imitation Game</em></a> es el título de la película de 2014 que relata la vida de <a href="https://es.wikipedia.org/wiki/Alan_Turing">Alan Turing</a>. La expresión “el juego de imitación” es del propio Turing: son las primeras palabras de su artículo de 1950, <a href="https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence"><em>Máquinas computacionales e inteligencia</em></a>, en el que propone su famoso experimento –el <a href="https://demaquinaseintenciones.wordpress.com/2018/09/27/el-test-de-turing-revisitado/">Test de Turing</a>– para determinar si una máquina puede pensar. </p>
<p>Eran los inicios de la inteligencia artificial. Las cuestiones éticas que esta plantea tienen cada vez más importancia. En este artículo reflexiono, además, sobre lo que podemos aprender nosotros cuando nos planteamos cómo enseñar comportamiento ético a una máquina.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=415&fit=crop&dpr=1 600w, https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=415&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=415&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=522&fit=crop&dpr=1 754w, https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=522&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/348109/original/file-20200717-37-bp070e.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=522&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La película ‘The imitation game’ trata sobre la vida del matemático Alan Turing.</span>
</figcaption>
</figure>
<h2>La ética programada</h2>
<p>El comportamiento ético de las máquinas siempre ha sido un tema dado a la especulación más o menos fantasiosa, muy especialmente a la ciencia ficción. Un ejemplo paradigmático es <a href="https://es.wikipedia.org/wiki/Isaac_Asimov">Isaac Asimov</a> y sus famosísimas <a href="https://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica">tres leyes de la robótica</a>, formuladas por primera vez en un relato escrito en 1941 (<a href="https://es.wikipedia.org/wiki/C%C3%ADrculo_vicioso_(cuento)"><em>Círculo vicioso</em></a>).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=264&fit=crop&dpr=1 600w, https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=264&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=264&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=332&fit=crop&dpr=1 754w, https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=332&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/348101/original/file-20200717-19-bqfu94.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=332&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Las tres leyes de la robótica de Isaac Asimov.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Las tres leyes de la robótica son un intento de programar explícitamente un código ético en un robot, lo que podríamos llamar una ética programada. </p>
<p>La programación clásica, explícita, es una descripción procedimental de las instrucciones que tiene que seguir una máquina computacional (un ordenador) para llevar a cabo una tarea. Puede ser sumar dos números, llevar un paquete de un lugar a otro, realizar un trasplante de córnea… </p>
<p>Este tipo de programación trata de descomponer el problema en instrucciones secuenciales, repeticiones y caminos alternativos (estos últimos en función de que se cumplan o no determinadas condiciones).</p>
<h2>La ética aprendida</h2>
<p>La verdad es que entender la ética de esa manera, encorsetada dentro de un código que sea capaz de contemplar todos los casos posibles cuando se enfrente a ellos (que es lo que hace un programa) resulta bastante problemático. </p>
<p>En los últimos años ha surgido otro enfoque que podemos llamar ética aprendida, implícita, de la mano de los desarrollos en inteligencia artificial. En el MIT (el Massachusetts Institute of Technology) han desarrollado un experimento “para tratar de hacer que las máquinas sean más morales”, al que han bautizado como la <a href="http://moralmachine.mit.edu/hl/es">Moral Machine</a>:</p>
<p><em>¡Bienvenidos a la Máquina Moral! Una plataforma para recopilar una perspectiva humana sobre las decisiones morales tomadas por las máquinas inteligentes, como los coches autónomos…</em></p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=353&fit=crop&dpr=1 600w, https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=353&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=353&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=443&fit=crop&dpr=1 754w, https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=443&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/340069/original/file-20200605-176560-z9gvld.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=443&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Presentación de la máquina moral del MIT.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Enseñar a las máquinas a tomar decisiones</h2>
<p>El dominio de los <a href="https://theconversation.com/es/topics/coches-autonomos-67520">vehículos autónomos</a> está muy presente en los medios de comunicación. Para abordar los dilemas de la conducción a los que se enfrentan, los expertos intentan aprender de las respuestas que la gente común daría a estas cuestiones. </p>
<p>Como no sabemos cómo programar explícitamente el código ético de un vehículo autónomo, preguntemos a las personas: ¿y usted qué haría? En esta situación. Y en esta otra. Y así sucesivamente. A partir del conjunto de respuestas se extrae información, hasta llegar a construir un conjunto de patrones de comportamiento. </p>
<p>Algo semejante se hace en otros dominios: como no sabemos programar con reglas explícitas cómo reconocer un rostro humano, pedimos que la gente reconozca rostros y distinga si este está sonriendo, si este está enfadado, triste o preocupado. Se pueden reconocer así incluso gestos corporales: una muestra amistosa entre amigos que hace tiempo que no se ven o entre dos personas que cierran un trato, un gesto amenazador… </p>
<p>Todo esto son técnicas ya conocidas y que están funcionando: tratemos, pues, de aplicarlas para extraer conocimiento moral de las respuestas de la gente. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=387&fit=crop&dpr=1 600w, https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=387&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=387&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=486&fit=crop&dpr=1 754w, https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=486&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/340071/original/file-20200605-176554-1mir2zi.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=486&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Ilustración de un dilema de los coches autónomos: ¿a quién atropellar?</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>En la imagen vemos un ejemplo concreto: ¿a quién atropellaría el vehículo autónomo, a la mujer o al hombre? Y así con diversas situaciones, unas más complejas que otras, pero siempre en forma de dilema A o B: hombres o mujeres, ancianos o niños, gatos o perros, pasajeros o viandantes, etc. </p>
<p>Entre las figuritas que uno puede seleccionar, hay incluso un sanitario (hombre o mujer) que se identifica fácilmente por su maletín con una cruz blanca. Tal vez lleva la vacuna contra el <em>coronavirus</em> y salvándole a ella podríamos salvar a cientos de miles de personas. ¿Debe influir esto en nuestra decisión?</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=263&fit=crop&dpr=1 600w, https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=263&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=263&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=331&fit=crop&dpr=1 754w, https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=331&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/340072/original/file-20200605-176585-14t6xei.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=331&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">¿La vida de un sanitario vale más? Al menos es el que los encuestados suelen preferir…</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Problemas del aprendizaje automático</h2>
<p>¿Qué problemas tiene esta forma de plantear las cuestiones éticas? En primer lugar, está el problema de la explicabilidad, que preocupa mucho a los investigadores. </p>
<p>En el aprendizaje automático (que es solo una rama de la inteligencia artificial) el resultado final es una fórmula, un algoritmo, para reconocer el rostro, el gesto, la escritura. Pero no se puede explicar por qué funciona. No hay otra justificación para la fórmula más allá de que tenga un porcentaje de éxito muy elevado, su efectividad. Y claro, cuando la decisión tiene una fuerte carga ética, el hecho de que no se pueda razonar es un problema serio, muy serio.</p>
<p>Otro problema que se plantea una y otra vez es el problema de los sesgos. Los algoritmos éticos tienen que evitar los sesgos, los que sean. <a href="https://theconversation.com/el-sexismo-en-los-algoritmos-una-discriminacion-subestimada-140790">Sesgos contra las mujeres</a>, contra los afroamericanos, contra los que visten de forma poco convencional, etc. </p>
<p>¿Qué ocurre si la población a la que estamos encuestando en el experimento está sesgada? Estaremos reproduciendo el sesgo mayoritario, y eso no es admisible: si la mayoría está sesgada, no basta con imitarla, sino que hay que evitar el sesgo, por mucho que lo diga la mayoría. </p>
<p>Esto pone de relieve una cuestión muy interesante: sabemos que el sesgo, o el estar sesgado, es algo malo, independientemente de lo que diga la mayoría. O sea, el bien y el mal no es lo que dice la mayoría, sino que está más allá. Esta no es una reflexión original: está en los orígenes mismos de la reflexión ética en la filosofía griega. Lo interesante es que la inteligencia artificial lo vuelve a poner de relieve. </p>
<p>Pero, si no es lo que dice la mayoría, ¿cómo sabemos lo que está bien y lo que está mal? Un problema bien difícil… No voy a pretender que tengo la respuesta, lista para ser explicada en tres líneas. No obstante, sí me atrevo a decir que renunciar a intentar conocer el bien y el mal en sí mismos –y este “en sí mismos” quiere decir que están más allá de las mayorías– es una grave limitación de la investigación, de la educación, de las políticas sociales, públicas, etc.</p>
<p>Otro problema que se presenta, estrechamente relacionado con el anterior, es el problema de la selección de la muestra. La selección de personas a las que preguntamos: ¿a quién atropellaría? Pues bien, ¿a quién estamos preguntando, a gente <em>normal y corriente</em> o a sádicos? ¿Y por qué los sádicos no deberían entrar en la encuesta? ¿No estaremos sesgando la muestra? ¿Y cómo sabemos quiénes son gente <em>normal y corriente</em>, y quiénes son sádicos? </p>
<p>El criterio ético lo aplicamos ya en la selección de la muestra: es <em>a priori</em>, es anterior al experimento. Aunque no lo sepamos perfectamente, en cierto modo ya sabemos qué es lo bueno y qué es lo malo antes de hacer el experimento.</p>
<h2>Ética, mayorías y pensamiento crítico</h2>
<p>En definitiva, la ética no consiste en la imitación del comportamiento típico o mayoritario. Nosotros no enseñamos ética así, ni queremos que se enseñe así. Si un gobierno nacional o regional incluyera en sus programas educativos un planteamiento ético como el siguiente: “los niños y niñas tenéis que imitar a la mayoría”, ¿no nos rebelaríamos con tremenda indignación? </p>
<p>El germen mismo de la ética es el pensamiento crítico, el no conformarse con el pensamiento dominante, el compromiso de la propia conciencia con reconocer por sí misma lo que está bien y lo que está mal.</p>
<p>La ética no es un juego de imitación. La ética no consiste en seguir un código de conducta como el de las tres leyes de Asimov; pero tampoco consiste en imitar el comportamiento de otros. El aprendizaje por imitación es algo muy humano, pero si hay alguna diferencia entre <a href="https://twitter.com/search?q=%23QuedateEnCasa">#QuédateEnCasa</a> y #HazAcopioDePapelHigiénico, esa diferencia no está en la cantidad de gente que se comporta de una manera u otra, sino en la razonabilidad de su comportamiento. La ética no se contagia como un virus, se aprende y se discurre racionalmente.</p>
<hr>
<p><em>Este artículo es una versión resumida de uno aparecido anteriormente en <a href="https://naukas.com/2020/03/25/la-etica-no-es-un-juego-de-imitacion/">Naukas</a> y en el blog del autor, <a href="https://demaquinaseintenciones.wordpress.com/2020/03/25/la-etica-no-es-un-juego-de-imitacion/">De máquinas e intenciones</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/140084/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Gonzalo Génova no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Cómo podemos enseñar normas morales de comportamiento a una máquina? La ética no puede basarse en la opinión mayoritaria sobre el bien y el mal ni en un rígido código de conducta.Gonzalo Génova, Profesor Titular de Lenguajes y Sistemas Informáticos, Universidad Carlos IIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1258302019-11-04T20:35:50Z2019-11-04T20:35:50Z¿Tenemos hoy una formación universitaria ‘light’?<figure><img src="https://images.theconversation.com/files/299192/original/file-20191029-183147-1t7yx1h.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C4920%2C3275&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/teenager-girl-math-class-overwhelmed-by-1054012055">ABO PHOTOGRAPHY / Shutterstock</a></span></figcaption></figure><p>El 8 de mayo de 1996, el profesor de la Universidad de Harvard Henry Rosovsky pronunció una conferencia en la Universidad Complutense de Madrid que llevaba por título <a href="https://chicrebelra.blogspot.com/2018/08/descargar-universidad-del-siglo-xxi-la.html"><em>La universidad del siglo XXI: problemas actuales, misión cambiante y posibles soluciones</em></a>. En ella se refirió al acto de graduación que, año tras año, se celebra en la emblemática universidad de la ciudad de Cambridge. «Es una ocasión impresionante», afirmaba Rosovsky, «el rector de la universidad se pone en pie y les dice a los recién graduados: ‘os doy la bienvenida al grupo de los hombres y mujeres educados’». </p>
<p>Ya estamos otra vez con Harvard, pensarán algunos, con una universidad que para nada representa al resto de universidades. Y tienen razón. Aquella universidad es de unas dimensiones XXL, se mire por donde se mire. Sin embargo, no hace falta haber estudiado en la Universidad de Harvard para que cualquier recién graduado se sienta aludido por la emblemática frase que el rector de turno de aquella prestigiosa universidad pronuncia en los actos de graduación.</p>
<p>Eso mismo podría decirse en la Universidad Estatal de Moscú o la de Lérida, podría dirigirse a los recién graduados en Biología o Arquitectura, y sería válido para las promociones de 1650 y 2019.</p>
<h2>Significado de una frase ya histórica</h2>
<p>«Os doy la bienvenida al grupo de los hombres y mujeres educados en la universidad». La sencillez del mensaje no debería despistarnos. El propio profesor Rosovsky afirmaba que «durante muchos años, yo he sido la persona encargada de decir esa frase, y todavía sigo preguntándome el significado real de la misma». </p>
<p>Podría pensarse que sus inquietudes giran en torno a si la universidad, la suya y todas, hace uso de las metodologías pedagógicas más innovadoras, a si las nuevas hornadas de graduados están realmente preparadas para ejercer determinadas profesiones, a si se llevan consigo las competencias que se les ha tratado de enseñar o cuestiones por el estilo. </p>
<h2>Educación o título</h2>
<p>Sin embargo, la cosa no parece ir por allí. De lo que se trata más bien, me atrevo a aventurar con el permiso del profesor Rosovsky, es de saber si el hecho de obtener un título universitario es garantía de haber sido educado en la universidad. Dicho de otra manera, se trata de vislumbrar una posible respuesta a la que Ortega y Gasset, a quien por cierto Rosovsky <a href="https://ccsu.es/sites/default/files/mision_ortega_y_gasset.pdf">cita apasionadamente en su conferencia</a>, llamó la cuestión fundamental, a saber: «¿Para qué existe, está ahí y tiene que estar la universidad?».</p>
<p>La <a href="https://www.iberlibro.com/UNIVERSIDAD-historia-ilustrada-Edici%C3%B3n-Fernando-Tejerina/10206005685/bd">historia de la formación universitaria</a> es la crónica de las respuestas que se han dado a la cuestión señalada antes, y parece ser la biografía de una incertidumbre permanente. La educación universitaria vive entre la adaptación y la orientación, entre la educación para algo y la educación hacia algo. </p>
<p>El filósofo inglés <a href="https://books.google.es/books/about/La_voz_del_aprendizaje_liberal.html?id=YjJanDqwP3oC&hl=es">Michael Oakeshott</a> representó esta cuestión de una manera muy clara. La educación universitaria recibe dos mensajes al mismo tiempo, por un lado se le dice que «allá fuera en las calles se está gestando algo nuevo, algo que va a acabar con los silogismos y las fórmulas de las escuelas; adáptense o quítense del camino», y por otro lado, se le anuncia que «allá afuera en las calles todo es un caos. Por favor, ayúdenme a distinguir entre lo bueno y lo malo".</p>
<h2>Adaptación y orientación</h2>
<p>Este asunto no debería ser planteado de una manera maniquea, no estamos ante una dicotomía ante la que haya que posicionarse. La educación universitaria puede ser al mismo tiempo una cuestión de adaptación y de orientación. Ahora bien, los vientos universitarios que soplan hoy en día propician que se dediquen gran parte de los esfuerzos a la adaptación y nos desentendamos de la orientación. </p>
<p>Sí, la educación universitaria contemporánea es valorada según sea su eficacia, utilidad, empleabilidad de los estudiantes, etc. Para qué sirve este contenido o qué utilidad tiene esta actividad que hay que realizar en clase son afirmaciones demasiado conocidas, y están tomando las riendas de la educación universitaria de los últimos años.</p>
<h2>Cultivar determinadas virtudes</h2>
<p>Sin embargo, la educación universitaria en tanto que orientación es un asunto de vital importancia. La utilidad también se encuentra en lo aparentemente inútil. El tema de la orientación tiene que ver con el cultivo de determinadas virtudes que redundan en la vida personal, social y profesional de quienes las atesoran. </p>
<p>La universidad no es un lugar al que acudir para obtener un título académico, no es solo ni principalmente eso. Dicho logro, importante donde los haya, puede querer decir mucho y puede no querer decir demasiado. Aseguraba el filósofo Michael Levine que tener hijos no lo convierte a uno en padre, del mismo modo en que tener un piano no lo vuelve pianista. Algo así puede aplicarse al asunto que estamos tratando. </p>
<h2>Aprender a vivir</h2>
<p>No se trata de disponer de personas con títulos universitarios, sino de disponer de personas que piensen, se muevan y vivan como universitarios. La educación universitaria no es tan solo la acumulación de créditos para adquirir un buen piano, también es el proceso mediante el cual uno aprende a ser y vivir como un pianista.</p>
<p>Pero ¿de qué virtudes estamos hablando? No sería de recibo presentar una lista de las virtudes propias de una persona universitaria. Las dudas del profesor Rosovsky son las de la gran mayoría de personas que encaran seriamente este asunto. La pregunta de Ortega está hoy más abierta que nunca. </p>
<p>Ahora bien, basta con una lectura atenta de los trabajos que se han dedicado a la filosofía de la educación universitaria o, algo más fácil, detenerse a pensar ante las palabras que engalanan la gran mayoría de los escudos de nuestras universidades (verdad, sabiduría, luz, libertad, persona, comunidad, etc.) para poder sospechar algunas de esas virtudes que pueden cultivarse en el transcurso de la aventura universitaria. </p>
<p>En definitiva, deberíamos estar atentos y no acabar fomentando una <a href="https://www.planetadelibros.com/libro-la-universidad-light/294015">formación universitaria <em>light</em></a>, una formación que no se hace cargo de todo lo que debería atender.</p><img src="https://counter.theconversation.com/content/125830/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Francisco Esteban Bara no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Educarse en la universidad no tiene que ver sólo con obtener un título de alto rango, también consiste en adquirir una forma de vida informada por valores como la libertad, la sabiduría y el servicio a la comunidad.Francisco Esteban Bara, Filosofía de la Educación Superior, Universitat de BarcelonaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1199832019-07-10T20:07:17Z2019-07-10T20:07:17ZLos niños pequeños aprenden palabras igual que los perros. ¿Podrían hacerlo las máquinas?<figure><img src="https://images.theconversation.com/files/283090/original/file-20190708-51292-4wnxx0.jpg?ixlib=rb-1.1.0&rect=68%2C11%2C1138%2C837&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.maxpixel.net/Love-Baby-Infant-Small-Animal-Canine-Dog-1718242">MaxPixel</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Los algoritmos y procesos de inteligencia artificial (IA) han recibido un impulso muy grande en los últimos años. A ello han contribuido las grandes bases de datos, la potencia de los nuevos microprocesadores y la mayor comprensión del funcionamiento matemático.</p>
<p>Sin embargo, las técnicas que están más de moda, como el famoso <em>deep-learning</em>, <a href="https://cacm.acm.org/news/221108-artificial-intelligence-pioneer-says-we-need-to-start-over/fulltext">ya están dando muestras de agotamiento</a>. Además, cada vez más científicos defienden que hay que desarrollar nuevas herramientas. En <a href="https://www.wired.com/story/greedy-brittle-opaque-and-shallow-the-downsides-to-deep-learning/">palabras de Pedro Domingos</a>, “<em>llevamos empleando los mismos principios desde 1950</em>”.</p>
<p>En los últimos años, la inspiración que ha hecho avanzar a la IA proviene de la neurociencia y la psicología. Hoy parece mentira, pero en su origen estas dos disciplinas iban de la mano. Sin embargo, según se fueron desarrollando y especializando, cada vez se separaron más y más. </p>
<p>Hoy es el día en que la combinación de ellas puede arrojar luz sobre nuevos algoritmos de IA. En el presente artículo, quiero demostrar un caso particular, entre muchos, de alianza entre disciplinas.</p>
<h2>¿Cómo aprenden palabras nuevas los perros?</h2>
<p>Estos animales emplean una técnica muy curiosa. Pensemos que en un experimento disponemos de tres objetos: los nombres de dos de ellos son conocidos por los canes (por ejemplo, <em>pelota</em> y <em>peluche</em>), y el del restante, no (<em>zapatilla</em>). </p>
<p>Si pedimos al perro que nos dé la zapatilla, ¿cómo distinguirá el objeto correcto? A modo de descarte, elegirá el cuerpo cuyo nombre desconoce. Si nuestra respuesta es positiva, en adelante él aprenderá que <em>zapatilla</em> es ese objeto de tela de colores y goma. </p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/283088/original/file-20190708-51288-hb4xv6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p>No es la única manera en la que los perros aprenden palabras nuevas. Los investigadores afirman que, en esta manera de aprender, los canes lo hacen impulsados por una confusión mental. Los psicólogos llaman a este fenómeno <a href="https://en.wikipedia.org/wiki/Mutual_exclusivity_(psychology)"><em>el principio de mutua exclusividad</em></a>.</p>
<p>Nuestras mascotas no son las únicas que pueden manejar este principio. Se ha demostrado que los chimpancés y los niños pequeños también la emplean. En definitiva, se conoce desde hace mucho tiempo. </p>
<p>La opinión mayoritaria de los científicos es que, debido a la complejidad del cerebro humano, la mutua exclusividad no es el único mecanismo que interviene en el aprendizaje de palabras. Pero no hay ninguna duda sobre su existencia. Basta con ver a un niño para entender que no existe aún ninguna máquina parecida a la mente de esa criatura.</p>
<p>Ahora bien, ¿cómo trasladamos esta habilidad a los algoritmos de IA tradicionales? Las redes neuronales actualmente carecen de mutua exclusividad, <a href="https://mappingignorance.org/2018/11/14/the-convergence-of-neuroscience-and-artificial-intelligence/">y de muchas más características del aprendizaje humano</a>. </p>
<p>Por ejemplo, estas herramientas funcionan muy mal para aprender ideas nuevas sin borrar las antiguas. Tampoco para elaborar generalizaciones (si sabes conducir un modelo de coche, sabrás conducir el resto de modelos).</p>
<p>Por esta razón, se está tendiendo a integrar las aportaciones provenientes de la neurociencia y psicología. No tenemos ninguna certeza de que lleguemos a imitar perfectamente todo el aprendizaje humano. Pero ese es el tipo de respuestas que persigue cualquier labor de investigación.</p><img src="https://counter.theconversation.com/content/119983/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Julián Estévez Sanz recibe fondos de Unión Europea, enmarcado en el proyecto CybSPEED sobre robótica social . </span></em></p>Algunos animales, entre los que se encuentra el ser humano, aprenden según el principio de mutua exclusividad. Aplicar esto a la IA serviría para hacer avanzar una tecnología estancada.Julián Estévez Sanz, Profesor Ayudante, Universidad del País Vasco / Euskal Herriko UnibertsitateaLicensed as Creative Commons – attribution, no derivatives.