tag:theconversation.com,2011:/fr/topics/robotica-55723/articlesrobótica – The Conversation2024-02-26T20:54:30Ztag:theconversation.com,2011:article/2213272024-02-26T20:54:30Z2024-02-26T20:54:30ZInteligencia artificial y robótica al servicio de la fisioterapia<figure><img src="https://images.theconversation.com/files/571268/original/file-20240124-21-8cj478.jpeg?ixlib=rb-1.1.0&rect=0%2C0%2C1196%2C741&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Tratamiento de fisioterapia con el robot Adamo.</span> </figcaption></figure><p>La robótica y la inteligencia artificial están creciendo exponencialmente en el <a href="https://www.ospat.com.ar/blog/el-avance-de-la-robotica-y-la-inteligencia-artificial-en-salud/">ámbito sanitario</a>. De hecho, hace tiempo que las aplicaciones de <a href="https://theconversation.com/es/topics/inteligencia-artificial-55402">IA</a> ayudan a manejar una cantidad ingente de datos (como imágenes) y que se usan robots para intentar mejorar la eficiencia de los tratamientos (caso de los exoesqueletos).</p>
<p>De todos modos, es importante recalcar que el profesional sanitario es insustituible, y que, incluso por normativa, la decisión clínica debe ser tomada por un humano. En este contexto, herramientas como la inteligencia artificial y la robótica potencian las capacidades humanas en pro de mejorar la calidad de vida. </p>
<p>En lo que se refiere a la fisioterapia, los profesionales usan desde hace décadas dispositivos de electroterapia como los ultrasonidos, láseres de alta potencia, terapias superinductivas, terapias invasivas ecoguiadas, magnetoterapias o incluso mecanismos que fomentan la movilidad del paciente. </p>
<p>Además, la decisión clínica del especialista debe fundamentarse en un diagnóstico que garantice el tratamiento más adecuado. Para ello, los fisioterapeutas usan infinidad de test ortopédicos y evaluaciones de palpación, pero también se valen de herramientas tecnológicas que cuantifican el movimiento o aportan imágenes termográficas o ecográficas para valorar el estado del paciente y su evolución. </p>
<h2>Un proyecto ambicioso</h2>
<p>Dentro de la innovación en el campo de la fisioterapia, uno de los proyectos más ambiciosos es <a href="https://www.aei.gob.es/sites/default/files/convocatory_info/file/2023-10/CPP2022_PRD_WEB_FINAL.pdf">AIRESPALTER</a>, que aúna la inteligencia artificial aplicada al diagnóstico mediante imágenes termográficas con el tratamiento robótico a través de aire comprimido termorregulado. Las empresas <a href="https://thermohuman.com/es/">Thermohuman</a> y <a href="https://adamorobot.com">Adamo Robot</a> colaboran activamente junto a la <a href="https://www.ufv.es">Universidad Francisco de Vitoria</a> en el desarrollo de AIRESPALTER.</p>
<p>Su propósito es encontrar patrones térmicos relacionados con el dolor de espalda (cervical, dorsal o lumbar) y ofrecer al fisioterapeuta una propuesta de tratamiento automático con aire comprimido. El sistema robótico incorporará los ajustes necesarios de temperatura, velocidad y tipos de movimientos. </p>
<p>La compañía Thermohuman aporta el conocimiento y experiencia sobre la termografía, que detecta la temperatura del cuerpo del paciente. Así es posible determinar, entre otras cosas, <a href="https://pubmed.ncbi.nlm.nih.gov/16287675/">la cantidad de vascularización en un área concreta del cuerpo</a>. Las zonas que presentan un aumento de temperatura son compatibles con procesos inflamatorios, mientras que las áreas más frías pueden indicar una menor vascularización. Esto último podría ser indicio, por ejemplo, de rigidez o disfunción muscular.</p>
<hr>
<p>
<em>
<strong>
Leer más:
<a href="https://theconversation.com/un-traje-para-experimentar-que-se-siente-cuando-envejecemos-193736">Un traje para experimentar qué se siente cuando envejecemos</a>
</strong>
</em>
</p>
<hr>
<p>Gracias a estas imágenes, el terapeuta puede mapear y analizar las distintas estructuras y detectar zonas patológicas. Se ha comprobado que <a href="https://pubmed.ncbi.nlm.nih.gov/2971100/">una diferencia de temperatura de 0,3 ºC-0,6 ºC</a> o más entre el lado izquierdo y derecho de una misma región del paciente indica una alteración con sospecha de disfunción clínica. Con esta información, la decisión del terapeuta puede ser más adecuada y puede hacer un seguimiento del paciente de manera rápida, inocua y barata.</p>
<h2>El robot Adamo entra en escena</h2>
<p>La segunda pata del proyecto es <a href="https://www.youtube.com/watch?v=zeS5gt3ZSlE">Adamo Robot</a>, un robot colaborativo preparado al 100 % para trabajar con humanos que, además, cuenta con una cámara termográfica de última generación. Utiliza dos herramientas básicas en fisioterapia: la presión de masaje y el uso terapéutico de la temperatura. Ambas son aplicadas en seco a través de aire comprimido termorregulado; es decir, Adamo trata con la presión ejercida por el aire comprimido el cuerpo del paciente y aplica frío o calor según requiera la patología. </p>
<p>Su brazo robótico puede reproducir movimientos en tres dimensiones, y la temperatura, velocidad y presión pueden regularse según el criterio del fisioterapeuta. Es importante destacar que un proceso clínico siempre conlleva el tratamiento pasivo –con el apoyo de estas herramientas– y la terapia activa, con movimiento y ejercicio. El fin último es aliviar el dolor y devolver la máxima funcionalidad posible al paciente.</p>
<h2>Automatizado e indoloro</h2>
<p>Adamo es una herramienta que incorpora dos grandes beneficios a los tratamientos pasivos:</p>
<ul>
<li><p>La automatización, que permite al fisioterapeuta dedicar su tiempo a lo que de verdad importa: recuperar la funcionalidad del segmento lesionado.</p></li>
<li><p>Es un tratamiento absolutamente indoloro, ya que no contacta con la piel del paciente. Aunque Adamo ejerza una presión de hasta 6 bares, no estimula ciertos neurotransmisores y vías neurológicas que activan la sensación de dolor. Incluso si es sensible a la palpación, el paciente no sufrirá molestias de ningún tipo.</p></li>
</ul>
<p>Queda claro que la inteligencia artificial y la robótica son una gran elección para mejorar y agilizar los procesos clínicos dirigidos por un profesional sanitario. En este caso, por un fisioterapeuta.</p><img src="https://counter.theconversation.com/content/221327/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Esta publicación es parte del proyecto de i+D+i CPP2022-009565 financiado por MCIN/AEI/10.13039/501100011033/ y por la Unión Europea NextGenerationEU/PRTR.</span></em></p>El proyecto AIRESPALTER combina el poder de la IA para realizar diagnósticos mediante imágenes termográficas con la precisión de un brazo robótico que hace masajes y aplica calor o frio según la patología del paciente.Pablo Terrón Manrique, Profesor Doctor Facultad de Salud, Universidad Francisco de VitoriaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2163002024-01-04T20:45:55Z2024-01-04T20:45:55ZEl año que los Reyes Magos me regalaron un robot<figure><img src="https://images.theconversation.com/files/567955/original/file-20240104-23-n4vt7u.jpg?ixlib=rb-1.1.0&rect=212%2C20%2C3186%2C1686&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-vector/robotics-children-colored-background-clever-kids-2003591246">Macrovector/Shutterstock</a></span></figcaption></figure><p>A mí me ha tocado abrir todo tipo de paquetes y, como es lógico, algunos no me han gustado nada. Por ejemplo, el carbón. Debí portarme fatal ese año. Sin embargo, con el tiempo los Reyes Magos se fueron dando cuenta de lo que más me gustaba del mundo, y comenzó la lista de aciertos. </p>
<p>Si la memoria no me falla, recuerdo que mi primer regalo favorito fue un mecano. Se trataba de montar algo parecido a un vehículo tipo <a href="https://es.wikipedia.org/wiki/Transformers"><em>Transformer</em> que podía convertirse en una especie de robot</a>, y viceversa. No se movía de forma autónoma, tampoco hablaba, pero ni falta que hacía. El hecho de poder montarlo y transformarlo ya me parecía la bomba. </p>
<p>En ese momento tenía cierta <a href="https://news.uchicago.edu/story/puzzle-play-helps-boost-learning-important-math-related-skills">experiencia en hacer rompecabezas</a>, porque todos los años caía alguno el 6 de enero, pero con este robot transformista di el salto a los rompecabezas de tres dimensiones.</p>
<p>Poco después llegó el tren eléctrico. Se me abrió la boca cuando lo vi en la caja: la locomotora y los vagones por un lado, y las vías del tren por otro. Recuerdo montarlo con mi padre, conectando una vía con otra y cerrando el circuito. Y cuando accioné el interruptor y el tren empezó a moverse, aluciné. Que un juguete pudiera cobrar esa vida me entusiasmó. Era justo lo que le faltaba a mi robot. </p>
<h2>Una actividad que las niñas podíamos elegir</h2>
<p>Curiosamente, el año del tren eléctrico pusimos en marcha en el colegio una pequeña experiencia en tecnología que se basó en hacer un circuito con una pila, un interruptor y una bombilla. Yo ya llevaba los deberes hechos de casa. Construimos una casita con tizas de pizarra y dentro ubicamos el circuito para dar luz a la vivienda. Era una <a href="https://theconversation.com/como-alentar-a-las-ninas-a-estudiar-carreras-cientificas-y-matematicas-7-estrategias-102301">actividad que las niñas podíamos elegir</a> en lugar de hacer punto de cruz, y yo me decidí por el circuito. Recuerdo la experiencia con mucho cariño, e incluso alguna vez la he puesto en práctica con los más pequeños de mi entorno. </p>
<h2>Rosaura: la muñeca parlante</h2>
<p>La protagonista de los siguientes Reyes Magos fue Rosaura. Una muñeca enorme (me llegaba casi a los hombros), articulada, a la que podías vestir y peinar. Pero lo mejor de todo era que hablaba. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=1050&fit=crop&dpr=1 600w, https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=1050&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=1050&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1320&fit=crop&dpr=1 754w, https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1320&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/567257/original/file-20231222-27-jtz903.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1320&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La espalda de Rosaura, donde se introducía el disco que la hacía hablar.</span>
<span class="attribution"><a class="source" href="https://www.todocoleccion.net/munecas-espanolas-modernas/muneca-rosaura-original-jesmar-modelo-mas-antiguo-ver-fotos-disco~x359988760">Todocolección.net</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>En la espalda tenía un orificio en el que podías introducir un pequeño disco, no recuerdo bien si de vinilo, y al pulsar un botón, la muñeca lo reproducía por un altavoz y parecía cobrar vida. Fue el regalo más parecido a un robot humanoide que he recibido. No recuerdo haberla peinado ni haberle cambiado el vestido ni una sola vez, pero sí cambiarle los discos una y mil veces. Esta vez los Reyes Magos acertaron por los pelos, o más bien, por los discos. </p>
<h2>Los videojuegos con batería</h2>
<p>Lo siguiente fueron los videojuegos. Nada que ver con los de ahora. Los míos eran pequeñas maquinitas con botones y una pantalla, y lo máximo que sucedía en la partida era que un muñequito se moviera de derecha a izquierda o de arriba a abajo para matar a algún marciano o esquivar alguna fruta que caía del cielo. Eso sí, mi última maquinita pasó de tener pilas a tener una pequeña batería solar. La tenía que exponer a la luz del flexo para jugar por las noches, de lo contrario, la foca empezaba a desdibujarse y justo desaparecía cuando, movida por mis botones, iba directa a comerse el pescado.</p>
<h2>Y llegó el ordenador y el lenguaje de programación</h2>
<p>El gran salto fue el ordenador. Un<a href="https://es.wikipedia.org/wiki/MSX"> MSX</a>. Yo quería un SPECTRUM, pero los Reyes Magos debieron despistarse con la marca. Mi primo tenía el SPECTRUM y sus juegos eran mejores que los del MSX, a mi parecer. Pero lo que no tenía el SPECTRUM de mi primo era un libro que incluía códigos de programación. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=351&fit=crop&dpr=1 600w, https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=351&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=351&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=441&fit=crop&dpr=1 754w, https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=441&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/567259/original/file-20231222-21-ekjvq0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=441&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Sony MSX , Modelo HB-501P.</span>
<span class="attribution"><a class="source" href="https://es.wikipedia.org/wiki/MSX">Wikimedia commons</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Recuerdo que, al elegir uno de esos códigos de forma aleatoria y escribirlo con el teclado del ordenador siguiendo de forma escrupulosa las instrucciones, aparecieron en la pantalla una serie de círculos de colores que se redibujaban una y otra vez. Me fascinó. Ese momento fue clave para mí, ahí comenzó mi interés por conocer el lenguaje de programación y, casi sin darme cuenta, me fui enamorando de los ordenadores, la computación y la tecnología.</p>
<p>Quizás los Reyes Magos nunca me regalaron un robot en toda regla, pero con todos estos juguetes me despertaron la motivación necesaria y me ofrecieron algunas de las <a href="https://www.uc3m.es/secundaria/stem-girls-uc3m">herramientas más importantes para aprender poco a poco a manejarme en el mundo de la ciencia, la tecnología, la ingeniería y las matemáticas, lo que ahora se conoce como las disciplinas STEM</a>. </p>
<p>Esa es la magia de los juguetes, lo que esconden detrás de sus formas, sus colores y sus botones: una herramienta poderosísima con la que desarrollar nuestras capacidades cognitivas, nuestro aprendizaje conceptual y el razonamiento lógico. Con razón no hay mejor día que el día de los Reyes Magos.</p><img src="https://counter.theconversation.com/content/216300/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Concepción A. Monje no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Los regalos de Reyes que llevaron a Concha Monje, investigadora española especializada en robótica, a convertirse en un ejemplo para despertar en niñas vocaciones en carreras STEM.Concepción A. Monje, Investigadora del Robotics Lab , Universidad Carlos IIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2204252024-01-02T10:27:54Z2024-01-02T10:27:54ZEl confuso día del nacimiento de Isaac Asimov<figure><img src="https://images.theconversation.com/files/567550/original/file-20240102-15-wimhq.jpg?ixlib=rb-1.1.0&rect=79%2C6%2C942%2C672&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Mural de Isaac Asimov en Santiago de Chile</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/muaca/5778729611">Museo de Arte Callejero /Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span></figcaption></figure><p>Él mismo eligió su fecha de nacimiento. Un buen comienzo en la vida de un inmortal de la ciencia ficción como Isaac Asimov. Nació en Petrovichi, una pequeña aldea rusa, y cuando vino al mundo nadie tomó nota, no se llevó a cabo ningún registro. Nació en algún momento entre el 4 de octubre de 1919 y el 2 enero de 1920. Fue él mismo quien eligió esta última fecha como día de su cumpleaños. Oficialmente, el 2 de enero de 1920, nació Isaac Asimov. </p>
<p>Novelista, científico, divulgador cultural… Ruso de nacimiento, pero neoyorkino de Brooklyn, de pura cepa, Asimov creó mundos y viajes en los que no participó nunca. Dio vida a robots y civilizaciones sin moverse de la costa este de Estados Unidos, donde trabajó como <a href="https://www.uv.es/uvweb/unidad-cultura-cientifica-innovacion-catedra-divulgacion-ciencia/es/noticias/isaac-asimov-1285899375231/Novetat.html?id=1286033081507">profesor de bioquímica en varias universidades</a>. </p>
<h2>Escribió guías sobre la Biblia</h2>
<p>Comenzó a escribir ciencia ficción en 1939, a los 19 años, y continuó escribiendo durante toda su vida, aunque ya fue ampliando mucho su repertorio tocando muchos más palos que el de la fantasía científica. </p>
<p>Desde la divulgación científica hasta el estudio religioso, con sus <a href="https://es.wikipedia.org/wiki/Gu%C3%ADa_Asimov_para_la_Biblia">guías sobre el Antiguo y el Nuevo Testamento</a>, pasando por sus libros de historia, Asimov fue uno de los autores más prolíficos del siglo XX y uno de los padres de lo que se ha llamado cultura popular. </p>
<p>A pesar de esa facilidad para desenvolverse en distintos géneros literarios, Asimov es uno de los nombres más rutilantes en la galaxia de escritores de ciencia ficción, junto a<a href="https://www.biografiasyvidas.com/biografia/c/clarke_arthur.htm"> Arthur C. Clarke</a>, <a href="https://es.wikipedia.org/wiki/Philip_K._Dick">Phillip K. Dick </a> y <a href="https://es.wikipedia.org/wiki/Ray_Bradbury">Ray Bradbury</a>, entre otros. </p>
<h2>La muerte de un imperio galáctico</h2>
<p>En su obra más famosa, la <a href="https://asimov.fandom.com/es/wiki/Saga_de_la_Fundaci%C3%B3n">serie de las Fundaciones</a> –compuesta por “Fundación” (1951), “Fundación e Imperio” (1952) y “Segunda Fundación” (1953), más tarde alargada en otros cuatro libros y varios cuentos–, Asimov puso en su caldero de pociones mágicas la estadística, la robótica, la psicología y la astronomía para contarnos la historia de un Imperio Galáctico que moría, inspirándose en el imperio romano. </p>
<p>Su capacidad de aderezar lo imaginado con lo real, unida a una comunicación escrita portentosa por su limpieza, honestidad y sencillez, le distingue de otros autores del género. </p>
<h2>La ficción para hablar del ser humano</h2>
<p>Asimov utilizaba la ciencia para hablar de la humanidad, del ser humano. La ciencia ficción siempre fue un camino y no un fin. No estaba en su espíritu apabullarnos con explicaciones confusas sino mostrar cómo los seres humanos del futuro se movían por las mismas pasiones y vicisitudes que los del presente. </p>
<p>Este humanismo le llevó a plantear como debían relacionarse los robots con los seres humanos, y creó sus conocidísimas tres Leyes de la Robótica, descritas en el cuento <em>Círculo vicioso</em> (1948). Estas leyes influyeron notablemente en la creación de ciencia ficción, pero <a href="https://theconversation.com/el-derecho-de-los-robots-99772">también en la ciencia</a>, y están contempladas en las bases del desarrollo de la inteligencia artificial. </p>
<p>Como visionario, Asimov solo podría compararse con Julio Verne. Entre otros anticipos del futuro, Asimov anunció la creación de la computadora y detalló su funcionamiento quince años antes de que científicos de la Universidad de Pennsylvania presentaran a [ENIAC](https://www.eafit.edu.co/ninos/reddelaspreguntas/Paginas/como-se-creo-la-primera-computadora.aspx#:~:text=El%20proyecto%20ENIAC%20(Computador%20e,que%20inclu%C3%ADa%20a%20Robert%20F.), el primer cerebro electrónico de la historia. </p>
<h2>Sus personajes inolvidables</h2>
<p>Uno de sus personajes más conseguidos y famosos es una mujer, la doctora Susan Calvin, primera psicóloga robótica de la historia de la humanidad. La doctora Calvin, junto a Hari Seldon, protagonizan la primera parte de la saga <em>Fundación</em>.</p>
<p>También es inolvidable Andrew Martin, el robot que se convierte en humano en <em>El hombre bicentenario</em> (1978). Inspirándose en el <em>Pinocho</em> (1883) de Carlo Collodi, en su hombre bicentenario Asimov convierte en humano a una máquina. </p>
<h2>En series y plataformas</h2>
<p>Las creaciones de Asimov están plenamente vigentes en adaptaciones para series y películas. <a href="https://www.filmaffinity.com/es/film220063.html"><em>El Hombre bicentenario</em> (1999, Chris Columbus)</a> y <a href="https://www.filmaffinity.com/es/film647280.html"><em>Viaje alucinante</em> (1966, Richard Fleischer)</a> han tenido gran éxito, y lo mismo ha ocurrido con <a href="https://es.wikipedia.org/wiki/Yo,_robot_(pel%C3%ADcula)"><em>Yo robot</em> (2004, Alex Proyas)</a> y con la<a href="https://www.filmaffinity.com/es/film246878.html"> serie <em>Fundación</em> (2021)</a>. Aunque en estos dos últimos casos las licencias que se toman con las obras originales han sido enormes.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/567549/original/file-20240102-19-omdo99.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Fotograma de Fundación, una serie basada en la saga homónima de Asimov.</span>
<span class="attribution"><a class="source" href="https://www.filmaffinity.com/es/filmimages.php?movie_id=246878">Filmaffinity</a></span>
</figcaption>
</figure>
<p>Isaac Asimov falleció de sida en 1992. Contrajo el virus en una transfusión de sangre que se le realizó para una cirugía cardiovascular. En ese momento la familia decidió no contarlo, pero se incluyó en la biografía póstuma del autor. </p>
<p>El legado de Isaac Asimov perdura en sus escritos, que continúan inspirando a generaciones de lectores y científicos. Su capacidad para anticipar desarrollos tecnológicos y sociales, su destreza en la divulgación científica y su influencia en la ética de la inteligencia artificial lo convierten en una figura inmortal en la intersección entre la ciencia y la imaginación.</p><img src="https://counter.theconversation.com/content/220425/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>José María Lavín de la Cavada no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Isaac Asimov eligió su propia fecha de nacimiento, porque no constaba en ningún registro. Oficialmente es el 2 de febrero de 1920.José María Lavín de la Cavada, Director del Máster Universitario de Comunicación Social y Cultural, Universidad Internacional de ValenciaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2191262023-12-19T07:39:04Z2023-12-19T07:39:04ZEducación e innovación: cinco tecnologías que mejoran la enseñanza<figure><img src="https://images.theconversation.com/files/565121/original/file-20231212-27-nmt64j.jpg?ixlib=rb-1.1.0&rect=165%2C55%2C6864%2C4737&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/young-girl-building-robot-concentrated-look-1098389708">Yuriy Golub/Shutterstock</a></span></figcaption></figure><p>¿Ayudan las nuevas tecnologías a progresar y mejorar en el ámbito educativo? ¿De qué estamos hablando cuando hablamos de “educación y nuevas tecnologías” en el aula, y cuál es el impacto que realmente tienen? </p>
<p>En el caso de las tecnologías de la información (TIC) que definen nuestra era, el gran cambio que han supuesto en la concepción del proceso de enseñanza y aprendizaje es el de pasar de consumidor de información a agente activo en la producción de conocimiento. Esta transformación radical queda definida en la teoría del <a href="https://ateneu.xtec.cat/wikiform/wikiexport/_media/cursos/tic/s1x1/modul_3/conectivismo.pdf">conectivismo</a>, de principios del siglo XXI. </p>
<p>Este término tan arraigado hoy en día en el panorama educativo ha vivido una evolución que no siempre ha calado en la escuela. Las TIC dieron paso a las Tecnologías para el Aprendizaje y Conocimiento (TAC), en un intento de resaltar la intencionalidad de usar estas en la escuela con fines educativos. Pero la auténtica revolución hubiera sido asimilar su uso más allá del consumo de datos o información. </p>
<p>La experta española <a href="https://www.youtube.com/watch?v=6-F9L9avcwo&t=42s">Dolors Reig</a> ha acuñado una nueva denominación de estas herramientas: Tecnologías para el Empoderamiento y la Participación (TEP). Esta nueva forma de entenderlas nos orienta hacia una pregunta que siempre debería estar latente ante la decisión de su uso: ¿para qué introducirlas en la escuela?</p>
<h2>Sinergia entre educación y nuevas tecnologías: los alumnos los protagonistas</h2>
<p>Si la finalidad de la sinergia entre educación y nuevas tecnologías no es otra que consumir datos e información es posible que no nos hagan falta determinados recursos tecnológicos. Pero si pretendemos empoderar y hacer protagonistas a los alumnos en el proceso de generación de conocimiento y de transformación de la sociedad en red será imprescindible el uso de dispositivos que faciliten esa dinámica.</p>
<p><a href="https://eduteka.icesi.edu.co/articulos/samr">Rubén D. Puentedura desarrolló el modelo SAMR</a> para facilitar la reflexión sobre la intención con que incorporamos tecnologías en el aula. La S se corresponde con “sustitución”, y hace referencia a las tecnologías que se introducen en la escuela para sustituir a otros elementos sin que el cambio suponga en realidad nada nuevo. Por ejemplo, cuando se sustituyeron los mapas en papel por una proyección de diapositiva o transparencia sin más. </p>
<p>La A se corresponde con “aumento” y se da cuando reemplazamos una herramienta por otra y facilitamos la misma tarea, pero sin que haya un cambio metodológico.</p>
<p>La M se refiere a la “modificación” o el rediseño de la dinámica entre educación y nuevas tecnologías para el aprendizaje. Por último, la R hace referencia a “redefinición” que se dará cuando se generen determinadas actividades que sin el uso de esa tecnología no sería posible hacer.</p>
<h2>Nuevas tecnologías en educación: impresoras 3D, realidad extendida, robótica, IA y sistemas aumentativos</h2>
<p>Muchas de las tecnologías actuales se pueden usar, en realidad, desde cualquiera de estos cuatro enfoques, sin limitarse a atraer la atención de los alumnos hacia el contenido o la explicación, dado que esta es una motivación que pronto decae. Hoy en día cualquier docente atraería la atención de sus alumnos si utilizara en sus clases un proyector de diapositivas convencional, y estaría innovando para la inmensa mayoría de ellos.</p>
<p>Existen varias tecnologías interesantes en la enseñanza y el aprendizaje. Pero al utilizarlas conviene tener las siguientes preguntas en mente: ¿Me sirve para empoderarlos? ¿Para hacerles más partícipes de su aprendizaje? ¿Qué transformación metodológica busco? ¿Me permitirá diseñar actividades que hasta ahora no podía hacer?</p>
<ol>
<li><p><a href="https://www.unir.net/educacion/revista/las-impresoras-3d-en-educacion-ventajas-aplicaciones-y-ejemplos/"><strong>Impresoras 3D</strong></a>. Hace tiempo que forman parte de esta simbiosis entre educación y nuevas tecnologías y pueden servir para recrear elementos prediseñados, pero también para experimentar con nuevas ideas y proyectos. Algunas al servicio de la comunidad, como extremidades funcionales o prototipos para proyectos de emprendimiento en la escuela. Ofrecen la posibilidad de producir a pequeña escala las ideas de los alumnos. </p></li>
<li><p><a href="https://value.universidadeuropea.com/realidad-extendida-aplicada-a-la-ensenanza/"><strong>Realidad extendida</strong></a>. Engloba la realidad aumentada, la mixta y la virtual. La realidad aumentada combina elementos del mundo real con elementos virtuales; la mixta añade la posibilidad de interacción de los elementos reales con los virtuales, y la realidad virtual sumerge a la persona en un entorno completamente virtual. La posibilidad de sumergirse en antiguas civilizaciones a través de los restos arqueológicos de los que disponemos, o de poder internarse en el cuerpo humano, tiene un interés obvio en la escuela. </p></li>
<li><p><strong>Robótica y programación</strong>. La utilización de la programación en el ámbito escolar no es una novedad. Muchos recodaremos el <a href="https://es.wikipedia.org/wiki/Logo_(lenguaje_de_programaci%C3%B3n)">lenguaje de programación LOGO</a>, el de la tortuga, creado en la década de los años 60. Esta creación se basaba en las ideas del científico <a href="https://es.wikipedia.org/wiki/Seymour_Papert">Seymour Papert</a> sobre la teoría del aprendizaje y la psicología cognitiva. Décadas después contamos con numerosos lenguajes de programación que, de la mano de la robótica, permiten desplegar en la realidad lo diseñado en el ordenador. </p></li>
<li><p><strong>Inteligencia artificial</strong>. No podíamos dejar fuera de esta lista sobre educación y nuevas tecnologías a la inteligencia artificial. Recientemente la UNESCO ha publicado <a href="https://www.iesalc.unesco.org/wp-content/uploads/2023/04/ChatGPT-e-Inteligencia-Artificial-en-la-educacio%CC%81n-superior-Gui%CC%81a-de-inicio-ra%CC%81pido_FINAL_ESP.pdf">una guía para el uso de ChatGPT en la educación superior</a>. En esta se apunta a su utilización para generar ideas, ser un asistente colaborativo, ser ayudante para el diseño educativo y una herramienta motivadora.</p></li>
<li><p><a href="https://arasaac.org/aac-apps"><strong>Sistemas aumentativos y alternativos de comunicación</strong></a>. Hay muchas herramientas tecnológicas que se abren paso tímidamente pero que suponen una notable mejoría en la calidad de vida de muchas personas con discapacidad. El desarrollo de estas herramientas, tanto de <em>software</em> como de <em>hardware</em>, no sólo suponen un aumento en las posibilidades comunicativas. Hoy en día muchas de estas herramientas están desarrollando una nueva dinámica comunicativa.</p></li>
</ol>
<p>Según <a href="https://dle.rae.es/tecnolog%C3%ADa">la Real Academia Española</a>, la palabra “tecnología” alude bien a un conjunto de instrumentos y procedimientos, bien a un conjunto de teorías y técnicas. Cuando nos quedamos tan sólo en el instrumento, en el dispositivo, sin profundizar en qué hacer con él, es cuando surgen las dudas sobre la auténtica utilidad de la sinergia entre educación y nuevas tecnologías. En el momento en que decaiga la fascinación por la novedad desaparecerá el interés por su uso.</p>
<hr>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=112&fit=crop&dpr=1 600w, https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=112&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=112&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=141&fit=crop&dpr=1 754w, https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=141&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/538010/original/file-20230718-27-qyquvs.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=141&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Este artículo forma parte de una colaboración con Becas Santander, una iniciativa global que ofrece becas, programas y contenidos gratuitos para adultos de cualquier edad. Más información en <a href="https://www.becas-santander.com/">https://www.becas-santander.com</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/219126/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ángel Martínez León no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Hay tecnologías que pueden tener un impacto positivo y a largo plazo en el aprendizaje y la enseñanza. Pero antes de ponerlas en marcha hay que preguntarse cómo y para qué las usamos.Ángel Martínez León, Investigador y profesor de los Grados de Educación, Universidad San JorgeLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2042022023-04-20T18:11:38Z2023-04-20T18:11:38Z¿Le gustaría tener un sexto dedo?<figure><img src="https://images.theconversation.com/files/522055/original/file-20230420-18-gj3qz7.png?ixlib=rb-1.1.0&rect=0%2C0%2C1917%2C1020&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">No es un _deepfake_, sino una mano con un sexto dedo robótico.</span> <span class="attribution"><a class="source" href="https://www.youtube.com/watch?v=232jn-Vu6Rk">Yoichi Miyawaki Laboratory</a>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>¿Se ha fijado en lo que distingue a esa mano de las que ve habitualmente? Cuente el número de dedos…</p>
<p>La mano tiene un “sexto dedo artificial” robótico que <a href="https://www.lirmm.fr/ganesh-gowrishankar/">hemos desarrollado con nuestro colaborador</a>, el profesor Yoichi Miyawaki, de la Universidad de Electrocomunicaciones de Tokio (Japón).Los usuarios pueden controlar este sexto dedo independientemente del resto de su mano. De hecho, podemos aislar, con un algoritmo, la parte de la actividad muscular del antebrazo que no contribuye a los movimientos habituales de nuestros dedos, y utilizar esta señal para controlar el dedo robótico.</p>
<p>También está equipado con un <a href="https://theconversation.com/les-robots-sont-ils-les-chirurgiens-de-demain-96080">sensor háptico</a>: detecta cómo se sentiría un dedo y calcula una retroalimentación háptica, es decir, ligeras deformaciones que se aplican a la palma de la mano y generan sensaciones táctiles.</p>
<p>Una de sus principales ventajas es que el usuario puede manipular este dedo extra con un mínimo de aprendizaje: basta con menos de una hora para muchas personas. ¡Muy práctico para tocar el piano!</p>
<p>Gracias a este sexto dedo podemos estudiar cómo reacciona nuestro cuerpo ante nuevos miembros, algo que también ocurre cuando nos colocan una prótesis, por ejemplo.</p>
<h2>Cuando la representación del cuerpo cambia</h2>
<p>Partiendo de que los cambios en la <a href="https://theconversation.com/comment-se-construisent-les-representations-mentales-de-notre-corps-128871">percepción del cuerpo</a> de los usuarios se producen muy rápidamente, nuestro trabajo <a href="https://www.nature.com/articles/s41598-022-06040-x">se ha centrado en entender cómo el cerebro del usuario integra el sexto dedo</a>. </p>
<p>En los primeros experimentos de comportamiento, pedimos a los usuarios que tocaran una línea de meta con su propio dedo meñique (sin ver sus dedos). Esta experiencia demostró que los usuarios no perciben con claridad la ubicación de su propio dedo meñique en el espacio.</p>
<p>Actualmente continuamos estos estudios para observar directamente, mediante <a href="https://theconversation.com/peut-on-detecter-le-mensonge-grace-a-limagerie-medicale-200504">imágenes por resonancia magnética funcional</a>, posibles cambios en la actividad cerebral de los usuarios relacionados con la representación de su sexto dedo robótico. Por ejemplo, se puede observar qué zonas del cerebro se activan cuando el usuario mueve el dedo.</p>
<p>En neurociencia, hablamos de “personificación” de un miembro para referirnos a la capacidad del cerebro humano para <a href="https://www.sciencedirect.com/science/article/abs/pii/S0010027708000061">“aceptar” el miembro extraño</a> y creer que forma parte de su cuerpo.</p>
<p>Otro ejemplo llamativo es la <a href="https://www.youtube.com/watch?v=sxwn1w7MJvk">“ilusión de la mano de goma”</a>, en la que un usuario teme que le golpeen la mano mientras su brazo “real” está en otra parte.</p>
<h2>El cerebro humano puede integrar miembros extraños</h2>
<p>Este y otros <a href="https://www.sciencedirect.com/science/article/pii/S2589004220309299">estudios</a> <a href="https://www.sciencedirect.com/science/article/pii/S0168010215002655">científicos</a> realizados <a href="https://www.nature.com/articles/35784">en las últimas décadas</a>, incluido <a href="https://www.sciencedirect.com/science/article/abs/pii/S1053810016303038">el nuestro</a>, han demostrado que en realidad es bastante fácil engañar a nuestro organismo para que crea que otros miembros artificiales forman parte de él. El cerebro humano es muy adaptable y flexible en lo que define y acepta como nuestro cuerpo.</p>
<p>Esta flexibilidad resulta útil porque el cuerpo humano cambia a medida que crecemos y envejecemos. Además, nos ayuda a adaptarnos a cambios físicos como consecuencia de accidentes o parálisis.</p>
<p>Por otro lado, esta noción de “encarnación” nos permite aceptar prótesis para sustituir o complementar funciones perdidas.</p>
<h2>¿Hay límites a la aceptación de un nuevo miembro?</h2>
<p>Con nuestros estudios sobre miembros supernumerarios como el sexto dedo nos preguntamos por los límites de esta aceptación. ¿Es posible añadir nuevos miembros a nuestro cuerpo? ¿Podemos sentir esos miembros adicionales como parte de él?</p>
<p>Varios estudios anteriores han intentado responder a esta cuestión añadiendo miembros artificiales como <a href="https://www.mrc-cbu.cam.ac.uk/blog/2022/06/the-third-thumb-project-at-the-royal-society-summer-science-exhibition/">dedos robóticos</a>, <a href="https://ieeexplore.ieee.org/document/8612275">brazos</a> y una <a href="https://pubmed.ncbi.nlm.nih.gov/23428442/">cola virtual</a> a seres humanos.</p>
<p>Sin embargo, todos estos intentos se han basado en la “sustitución de extremidades”. En ellos, la extremidad añadida se acciona mediante los movimientos de una extremidad existente y cualquier respuesta háptica de la extremidad añadida se traslada a la existente.</p>
<p>Lo innovador de nuestro estudio es que estamos investigando si nuestro cerebro puede aceptar un miembro extra realmente independiente, capaz de moverse desvinculado del resto, y del que podamos obtener retroalimentación háptica, independiente de cualquier otro miembro. Y parece ser que sí.</p>
<p>Desde un punto de vista práctico, los resultados, según los cuales nuestro cerebro puede aceptar extremidades adicionales como un sexto dedo, son alentadores para el futuro desarrollo de extremidades artificiales portátiles.</p><img src="https://counter.theconversation.com/content/204202/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Este trabajo ha contado con el apoyo del JST ERATO número de subvención JPMJER1701, Japón.</span></em></p>Nuestro cuerpo puede incorporar un sexto dedo robótico, que podemos mover independientemente de los demás dedos, y percibir con él sensaciones táctiles.Ganesh Gowrishankar, Chercheur au Laboratoire d'Informatique, de Robotique et de Microelectronique de Montpellier, Université de MontpellierLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1976502023-02-20T19:52:39Z2023-02-20T19:52:39ZLos secretos de Tefi, el perro robot para invidentes<figure><img src="https://images.theconversation.com/files/507838/original/file-20230202-232-l4ro2b.jpeg?ixlib=rb-1.1.0&rect=0%2C516%2C6038%2C3494&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">El robot Tefi.</span> <span class="attribution"><a class="source" href="https://www.bostondynamics.com/products/spot">ITEFI-CSIC</a></span></figcaption></figure><p>Tefi, el perro robot pensado para invidentes, no ha nacido de la nada. Para su desarrollo, antes ha sido necesario desvelar los muchos secretos que albergan los robots que caminan. </p>
<p>En el año 1989, en el <a href="http://www.ai.mit.edu/projects/leglab/">MITLegLaboratory</a>, <a href="https://en.wikipedia.org/wiki/Marc_Raibert">Marc H. Raibert</a> y otros autores presentaron el informe <a href="https://www.academia.edu/28215719/Dynamically_stable_legged_locomotion"><em>Dynamically Stable Legged Locomotion</em></a>. Aquel trabajo fundamental revelaba esos secretos, las bases de la locomoción de los robots con patas. El informe incluía una serie de ecuaciones dinámicas y de control que supusieron el origen de robots como Tefi, los robots cuadrúpedos que caminan. </p>
<p>Desde aquel momento hasta el nacimiento de Tefi, el primer perro robot guía para invidentes, han transcurrido cuatro décadas de avances y conocimiento. </p>
<h2>De una pata a subir escaleras</h2>
<p>Todo empezó con el control de un <a href="https://www.youtube.com/watch?v=Bd5iEke6UlE">robot saltarín de una sola pata</a>, que evolucionó a dos y finalmente a cuatro. Con él, había nacido el perro robot. </p>
<p>El 23 de junio del 2016 <a href="https://theconversation.com/boston-dinamycs-pide-que-se-deje-de-armar-a-los-robots-que-esta-pasando-193639">Boston Dynamics</a> presentó el <a href="https://www.bostondynamics.com/products/spot">robot Spot Mini</a>, el primero a la venta, pero con un precio prohibitivo de 74 500 dólares.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/507837/original/file-20230202-232-p52cy3.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"><em>Spot</em> robot cuadrúpedo de Boston Dynamics.</span>
<span class="attribution"><a class="source" href="https://www.bostondynamics.com/products/spot">Boston Dynamics</a></span>
</figcaption>
</figure>
<p>Era una buena noticia, pero su elevado precio solo lo hacía accesible a empresas y a la industria militar. </p>
<p>A partir de 2020, conocidos los secretos básicos para hacer andar a un robot de cuatro patas, la investigación aumentó de tal manera que se optimizaron los diseños y disminuyó el coste de una manera significativa.</p>
<p>Los primeros robots cuadrúpedos de bajo precio los presentó Unitree. Su modelo <a href="https://shop.unitree.com/collections/frontpage/products/unitreeyushutechnologydog-artificial-intelligence-companion-bionic-companion-intelligent-robot-go1-quadruped-robot-dog">Go1</a> se vende por 2 500 dólares. Xiaomi bajó aún más los precios con su perro robot <a href="https://www.xataka.com/robotica-e-ia/ultima-locura-xiaomi-perro-robotico-llamado-cyberdog">Cyberdog</a>, que puede comprarse por menos de 1 500 euros, de momento solo en China y para desarrolladores. </p>
<p>Hasta el año 2022 la tendencia del uso de estos robots seguía siendo industrial y militar, despertando en este caso, temor en la sociedad, y alimentando el estigma negativo de la robótica. </p>
<h2>Más barato que un perro entrenado</h2>
<p>Conocedores de las tripas y engranajes de los perros robot, desde el Instituto de Tecnologías Físicas y de la Información (<a href="https://www.itefi.csic.es/es">ITEFI</a>) nos planteamos darles un uso social e inclusivo. </p>
<p>Inspirados en los <a href="https://perrosguia.once.es/es/que-hacemos/nuestros-usuarios">perros guía</a> para invidentes, y pensando en personas dependientes, propusimos desarrollar un robot cuadrúpedo de características similares a un perro, lo que le permite tener una gran movilidad en terrenos complejos, subir escaleras, caminar por superficies accidentadas, etc. </p>
<p>La forma cuadrúpeda de un robot facilita que se mueva en la ciudad, con la diversidad de obstáculos que presenta.</p>
<p>La idea siguió adelante teniendo en cuenta que el precio de un perro guía entrenado supera los <a href="https://www.elnortedecastilla.es/palencia/perro-guia-vale-20171211232453-nt.html">30 mil euros</a> y la persona que lo solicita ha de esperar un tiempo hasta que se lo asignan. Además, un perro requiere cuidados constantes por parte de su dueño y su tiempo de servicio no va más allá de 7 a 10 años. El precio de un perro robótico como Tefi no superaría los 5 000 euros.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/1av9EnmZWNk?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Tefi, el perro-robot para guiar a personas dependientes o con discapacidad / ITEFI-CSIC.</span></figcaption>
</figure>
<h2>El nacimiento de Tefi</h2>
<p>Así nació Tefi, un perro robot de color plateado y dotado de inteligencia artificial cuyo nombre hace referencia al instituto en el que nació, el <a href="https://www.youtube.com/watch?v=1av9EnmZWNk">ITEFI</a>. </p>
<p>Tefi está programado para acompañar y guiar a personas dependientes e invidentes. Se ha desarrollado en base a una plataforma robótica comercial a partir de la que se han hecho modificaciones tanto en <em>hardware</em> como en <em>software</em>.</p>
<p>Para mejorar su autonomía e inteligencia, se mejoraron aspectos como cámaras, micrófonos, <a href="https://es.wikipedia.org/wiki/RTK_(navegaci%C3%B3n)">gps-rtk</a>, altavoces, <a href="https://es.wikipedia.org/wiki/LIDAR">LIDAR</a>, diversos sensores ambientales y un procesador capaz de soportar tanto el sistema de control como los modelos de inteligencia artificial que se ejecutan en paralelo. </p>
<p>Tefi trabaja con diferentes modelos de inteligencia artificial, entre ellos el reconocimiento de voz, para que la persona pueda interactuar con el robot mediante comandos. Su dueño podrá pedirle lo que quiera que haga sin ningún interfaz, solo con la voz. También cuenta con un sistema de navegación automática para guiar a las personas tanto en el interior de un local como en el ambiente dinámico de las calles. </p>
<h2>“Tefi, llévame a la oficina”</h2>
<p>Tefi realiza un mapa preciso de los lugares que frecuenta. Una vez que ha ubicado en su mapa la casa, la oficina o la cafetería habitual, la persona solo tiene que darle un orden: “<a href="https://www.youtube.com/watch?v=GS2gR3V-oks">Tefi llévame a la oficina</a>”, y el perro guía llevará a su dueño a la oficina, creando la ruta óptima y esquivando los obstáculos. </p>
<p>En el exterior puede hacer uso de Google Maps para encontrar la ruta a destinos que no estén recogidos en su mapa. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=417&fit=crop&dpr=1 600w, https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=417&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=417&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=524&fit=crop&dpr=1 754w, https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=524&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/507189/original/file-20230130-13981-9z07f6.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=524&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Mapa generado por TEFI.</span>
</figcaption>
</figure>
<p>Otros aspecto que consideramos de importancia vital es que Tefi pudiera hacer llamadas o enviar mensajes a amigos, familiares e incluso a hospitales si se trata de una emergencia. El pequeño perro robot también cumple funciones sanitarias: sus sensores le permiten evaluar en tiempo real la acumulación de dióxido de carbono, temperatura ambiente, incluso la presión arterial de su dueño. </p>
<h2>Esto es un coche y no una zapatilla</h2>
<p>Entre los muchos modelos de inteligencia artificial integrados en Tefi, destaca el que le permite reconocer objetos. Puede identificar coches, mesas, sillas, etc, incluso personas. Así puede informar a su dueño sobre lo que está viendo, acercarle a una silla si es lo que le han pedido, o a las zapatillas. </p>
<p>También queríamos que Tefi captara información del exterior, como los letreros de la calle. Por esto tiene capacidad para leer códigos QR y otros derivados que le permiten recoger información relevante como el cierre de un local, cambio de ruta en los autobuses, el corte de calles por obras, etc.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=330&fit=crop&dpr=1 600w, https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=330&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=330&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=415&fit=crop&dpr=1 754w, https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=415&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/507187/original/file-20230130-24-da6bmi.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=415&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Visión artificial de TEFI.</span>
</figcaption>
</figure>
<p>Tefi aún tiene mucho desarrollo por delante, pero antes de salir a la calle ya anuncia el prometedor uso de la robótica en la sociedad, y que muy pronto Tefi y los suyos formarán parte de nuestra vida cotidiana.</p><img src="https://counter.theconversation.com/content/197650/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Gerado Portilla no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Tefi es la evolución de los perros robots, cuadrúpedos mecánicos que han aprendido a caminar con soltura por espacios irregulares. Tefi es el primer robot lazarillo. Vendrán más.Gerado Portilla, Doctor en Robótica, Universidad Politécnica de Madrid (UPM)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1747892022-04-21T17:48:34Z2022-04-21T17:48:34ZEl primer robot social considerado como producto sanitario en Europa<figure><img src="https://images.theconversation.com/files/447834/original/file-20220222-21-1fvk0m1.jpg?ixlib=rb-1.1.0&rect=11%2C5%2C3982%2C2988&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Usuarios del Centro de Día de la Fundación Instituto San José (Madrid) realizando sesiones grupales con el robot Inrobics Rehab.</span> <span class="attribution"><span class="source">Inrobics Social Robotics</span>, <span class="license">Author provided</span></span></figcaption></figure><p>Álvaro tenía 6 años cuando le conocimos. Acudía tres días a la semana a la Fundación Dacer para hacer rehabilitación. Su vida incluye esta rutina porque a los 14 meses de nacer le diagnosticaron atrofia muscular espinal tipo II. </p>
<p>Esta enfermedad neuromuscular, de carácter genético, se manifiesta por una pérdida progresiva de la fuerza muscular debida a la afectación de las neuronas motoras de la médula espinal. La afección hace que el impulso nervioso no se pueda transmitir correctamente a los músculos y que estos se atrofien, dificultando actividades esenciales como hablar, respirar, caminar o tragar. </p>
<p>Para Álvaro es esencial ir a rehabilitación para mantener activos sus músculos y ralentizar la progresión de la enfermedad. Sin embargo, en ocasiones las actividades terapéuticas le resultan repetitivas y aburridas, por lo que su fisioterapeuta tiene que utilizar diferentes recursos para captar su atención y aumentar la motivación. </p>
<p>En este sentido, el desarrollo tecnológico ha permitido durante las últimas décadas crear diferentes dispositivos para complementar los tratamientos rehabilitadores tradicionales. </p>
<h2>La era de los robots</h2>
<p>Algunos de estos dispositivos surgen a raíz de la aplicación de la robótica y la <a href="https://theconversation.com/es/topics/inteligencia-artificial-55402">inteligencia artificial</a>. Se agrupan en torno a diversos términos que hasta hace muy poco estaban restringidos al ámbito más científico. De esta forma, podemos encontrar productos basados en la robótica asistencial y otros desarrollados en base a la robótica social asistencial.</p>
<p>La robótica asistencial proporciona soporte a las personas mientras hacen diferentes actividades terapéuticas. Un ejemplo serían los exoesqueletos o los asistentes a la marcha. Por su parte, la <a href="https://theconversation.com/robots-sociales-como-relacionarnos-con-maquinas-que-fingen-no-serlo-119608">robótica social asistencial</a> proporciona asistencia a través de la interacción social con un robot, sin necesidad de contacto físico. De esta forma, se pueden llegar a establecer vínculos emocionales entre el usuario y el robot.</p>
<p>En la actualidad, existen diferentes empresas internacionales que han desarrollado productos aplicando la robótica social asistencial. Por ejemplo, la compañía Intuition Robotics (en Israel) creó <a href="https://blog.elliq.com/elliqs-new-wellness-features">ElliQ</a>, un dispositivo que presta asistencia personal a población adulta en sus domicilios. </p>
<p>Por otro lado, la empresa <a href="https://embodied.com/blogs/news/science-behind-moxie">Embodied</a> (en Estados Unidos) desarrolló un robot educativo y compañero de juegos llamado Moxie orientado a población infantil. </p>
<p>Asimismo, la <a href="https://www.robokind.com/recess/robots-teach-human-emotion">empresa RoboKind</a> (también en Estados Unidos) cuenta con diferentes productos orientados al mundo educativo. Su objetivo es mejorar habilidades físicas, cognitivas o sociales a través de la repetición y la práctica constante. </p>
<h2>Un robot para mejorar la rehabilitación sanitaria</h2>
<p>En España, mediante la empresa Inrobics hemos desarrollado Inrobics Rehab, una plataforma digital basada en robótica social que proporciona sesiones de rehabilitación a personas que presentan limitaciones en su capacidad motora, cognitiva y social derivadas de alteraciones neurológicas. Es la primera solución de robótica social en Europa en conseguir la certificación como producto sanitario.</p>
<p>Inrobics es una <a href="https://www.uc3m.es/ss/Satellite/UC3MInstitucional/es/Detalle/Comunicacion_C/1371320905082/1371215537949/Robotica_e_inteligencia_artificial_para_mejorar_la_rehabilitacion_sanitaria">empresa que surgió de la Universidad Carlos III de Madrid</a> tras más de siete años de investigación con el objetivo de ofrecer un servicio innovador.</p>
<p>El robot que hemos desarrollado pretende ser una solución destinada a centros de atención sociosanitaria, hospitales y residencias de la tercera edad. Su finalidad es que los terapeutas puedan configurar una sesión con tareas totalmente personalizadas para sus pacientes. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/449873/original/file-20220303-15-bmy6ki.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Imagen del robot Inrobics Rehab desarrollado por la empresa Inrobics, una <em>spin off</em> de la Universidad Carlos III de Madrid.</span>
<span class="attribution"><span class="source">Inrobics Social Robotics</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>En la actualidad, la plataforma cuenta con seis bloques de actividades que se especifican a continuación: </p>
<ul>
<li><p>EVAL: el paciente ha de realizar diferentes movimientos que el robot Robic le propone. El objetivo de esta actividad es conocer la amplitud del rango de movimiento de las diferentes articulaciones.</p></li>
<li><p>WARM UP: Robic propone unas secuencias de movimientos que la persona puede hacer de manera simultánea. Se utiliza como calentamiento previo al resto de la sesión.</p></li>
<li><p>DYNAMIC: propone secuencias de movimientos dirigidas al entrenamiento de fuerza y resistencia. Se trabaja mediante la repetición de secuencias de movimientos.</p></li>
<li><p>AVDs: el robot representa diferentes actividades de la vida diaria (alimentación, aseo y compra) a través de sus movimientos y ofrece guía verbal para que la persona las realice junto a él.</p></li>
<li><p>SYMBOLIC: ejercicio de atención y memoria en el que se presenta una serie de movimientos sencillos que luego Robic nombrará para que sean ejecutados por el usuario.</p></li>
<li><p>DANCE: ejercicio de baile en el que se enseña una coreografía con una canción añadiendo pasos de forma progresiva. Finalmente se realiza la coreografía completa.</p></li>
</ul>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/449872/original/file-20220303-23-1mpzwzs.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Imagen del robot Inrobics Rehab durante una sesión de rehabilitación.</span>
<span class="attribution"><span class="source">Inrobics Social Robotics</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Inrobics Rehab se puede aplicar en diferentes edades y patologías. Desde población infantil con problemas de neurodesarrollo a adultos con daño cerebral adquirido o trastornos derivados del envejecimiento como pueden ser las demencias.</p>
<h2>Trabajo conjunto entre el robot y el terapeuta</h2>
<p>Como vemos, la plataforma, accesible desde cualquier dispositivo con conexión a internet, ofrece a los terapeutas una amplia gama de actividades fundamentadas en los principios de ludificación. Es decir, en el uso de técnicas y dinámicas propias de los juegos con el fin de potenciar la motivación y reforzar la conducta para solucionar un problema. Además, también pretende intensificar las terapias, fomentar la neuroplasticidad y el control motor. </p>
<p>Una vez iniciada la sesión, el terapeuta supervisa al paciente y le asiste si es necesario. El robot inteligente podría continuar él solo hasta el final, intercalando correcciones, descansos y recompensas en forma de bailes o historias animadas según corresponda. </p>
<p>Asimismo, incorpora un sensor 3D que monitoriza todos los movimientos del usuario y proporciona información de los rangos de movimiento de las diferentes articulaciones. Así, los terapeutas pueden comprobar si ha aumentado el rango de movimiento de los grupos articulares afectados por la lesión.</p>
<p>Uno de los retos futuros de esta tecnología es añadir un pulsómetro que aporte datos sobre la evolución de la frecuencia cardiaca durante la sesión. Este tipo de datos permitiría a los clínicos comprobar si ha habido un acondicionamiento vascular durante la sesión y controlar la fatiga.</p>
<h2>¿Ha logrado ayudar a los pacientes?</h2>
<p>Las primeras investigaciones acerca de la aplicabilidad terapéutica de Inrobics Rehab se realizaron en el Hospital Virgen del Rocío de Sevilla con niños con parálisis braquial obstétrica. También en un campamento de niños con parálisis cerebral organizado por la Universidad Europea de Madrid. Los <a href="https://link.springer.com/article/10.1007/s12369-017-0402-2">resultados</a> de los desarrollos tecnológicos y los estudios realizados se recogieron en dos <a href="https://e-archivo.uc3m.es/handle/10016/31276?show=full#preview">tesis doctorales</a> y 12 publicaciones científicas.</p>
<p>Inrobics integra en su plantilla una terapeuta ocupacional y siempre cuenta con numerosos asesores clínicos de diferentes instituciones. Estas personas han colaborado para guiar y realizar todos nuestros desarrollos, de forma que se adapten lo mejor posible al día a día y la realidad del terapeuta y del paciente.</p>
<p>La experiencia sustraída confirma que la robótica social asistencial tiene las siguientes ventajas:</p>
<ol>
<li><p>Puede mejorar en gran medida la calidad y la duración de la adherencia en los tratamientos al dirigir interacciones sociales lúdicas diseñadas para producir un progreso medible hacia las metas del usuario.</p></li>
<li><p>Se puede usar de manera efectiva para involucrar en intervenciones terapéuticas basadas en el juego, potenciando la rutina diaria de los usuarios con diversidad funcional.</p></li>
<li><p>Influye en el aprendizaje motor, al focalizarse en inducir neuroplasticidad, la capacidad de un cerebro en desarrollo para formar nuevas conexiones neuronales.</p></li>
<li><p>Promueve la actitud positiva ante el esfuerzo y la frustración, pues valida el esfuerzo continuo del usuario.</p></li>
<li><p>Puede mejorar la concentración, participación y motivación del paciente al incluir en las sesiones poderosas mecánicas de juego.</p></li>
</ol>
<p>Inrobics Rehab ya se está comercializando. Por ejemplo, a principios de año, la plataforma fue adquirida por un centro de atención temprana en Palma de Mallorca.</p>
<h2>El futuro de Inrobics</h2>
<p>Para Inrobics es muy importante continuar mejorando el sistema, ampliar los usos de la plataforma y generar evidencia científica, por lo que colaboramos con diferentes organismos e instituciones.</p>
<p>El pasado mes de julio se realizó un estudio piloto en el Hospital Nacional de Parapléjicos de Toledo con niños con lesión medular. Según los <a href="http://iberdiscap.rehabilitamos.org/wp-content/uploads/2021/11/IBERDISCAP2021_paper_7.pdf">datos preliminares del estudio</a>, se observa una leve mejoría en los aspectos motores de los miembros superiores de los participantes y una mejor adaptación cardiovascular al esfuerzo.</p>
<p>A lo largo de este año 2022, lanzaremos la versión doméstica de Inrobics Rehab, que permitirá a los pacientes realizar sesiones de rehabilitación en sus domicilios previamente configuradas por sus terapeutas. </p>
<p>Los avances científicos en todas las áreas del conocimiento siguen apareciendo a un ritmo vertiginoso. Prueba de ello es el hecho de que ya estén aquí los primeros robots sociales capaces de interaccionar de forma autónoma e inteligente con seres humanos y, sobre todo, de mejorar su calidad de vida en aspectos cruciales como pueden ser los tratamientos rehabilitadores.</p><img src="https://counter.theconversation.com/content/174789/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>José Carlos Pulido Pascual recibe fondos del programa Caixa Validate (Fundación La Caixa), Dirección General de Autónomos y Emprendimiento de la Consejería de Economía, Hacienda y Empleo (Comunidad de Madrid) y Ayudas Torres Quevedo (Ministerio de Ciencia e Innovación). Además, es CEO de la empresa Inrobics Social Robotics, S.L.L.</span></em></p>Mediante juegos, el robot Robic ofrece sesiones de rehabilitación a personas que presentan limitaciones en su capacidad motora, cognitiva y social. El objetivo es potenciar la motivación de los pacientes.José Carlos Pulido Pascual, Profesor de Ingeniería Informática, Universidad Carlos IIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1704112021-11-23T20:58:22Z2021-11-23T20:58:22Z¿Podemos simular el cerebro humano?<figure><img src="https://images.theconversation.com/files/433451/original/file-20211123-19-boikuc.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C4293%2C2851&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/close-human-hands-touching-fingers-325496564">Shutterstock / Sergey Nivens</a></span></figcaption></figure><p>Escribir <em>El Quijote</em> o viajar a la Luna ha sido posible gracias al cerebro humano, un prodigio de la evolución que la ciencia aspira a comprender y replicar. </p>
<p>Cognición, acción y emoción surgen del intercambio de impulsos eléctricos entre neuronas. Todo lo que conocemos del mundo, cómo lo percibimos e interactuamos con él depende del cerebro. Pero nuestro conocimiento del cerebro es aún limitado y conseguir replicarlo pasa por conocerlo íntimamente. Desvelar sus secretos constituye uno de los grandes desafíos científicos de este siglo. </p>
<p>Prueba de la magnitud del reto es la existencia de iniciativas gubernamentales de gran envergadura como la europea <a href="https://www.humanbrainproject.eu/en/"><em>Human Brain Project</em></a> (HBP) o la estadounidense <a href="https://braininitiative.nih.gov/"><em>BRAIN Initiative</em></a>. Ambos proyectos cuentan con numerosos equipos de investigación dedicados a desentrañar la estructura y funcionalidad del cerebro desde los niveles molecular o celular hasta grandes centros nerviosos involucrados en tareas concretas. </p>
<p>Como ya demostró el <a href="https://es.wikipedia.org/wiki/Proyecto_Genoma_Humano">Proyecto Genoma Humano</a>, la colaboración es indispensable para acometer un desafío de tal dimensión. En el caso del HBP, investigadores de más de 140 instituciones científicas de todo el mundo colaboran desde el año 2013 para traducir el conocimiento del cerebro humano en mejoras sanitarias y desarrollo tecnológico, contando a su vez con un área dedicada a estudiar las implicaciones sociales y éticas de los avances realizados. </p>
<p>Si conseguimos entender cómo funciona el cerebro podremos diagnosticar y tratar con mayor eficacia enfermedades neurológicas que se nos resisten, como el <em>alzhéimer</em> o el <em>párkinson</em>. </p>
<p>A su vez, el conocimiento de los procesos cognitivos cerebrales sirve de inspiración para nuevas tecnologías en campos como la inteligencia artificial o la robótica. </p>
<h2>Simular el cerebro: divide y vencerás</h2>
<p>Imitar el modo en que funciona el cerebro permite diseñar algoritmos que <em>descubren</em> cómo resolver problemas, o desarrollar modelos computacionales de centros nerviosos que asisten a robots en tareas altamente sofisticadas, como aprender y adaptarse a situaciones imprevistas. </p>
<p>Estos modelos computacionales, siempre que respeten las características biológicas del área nerviosa que simulan, también sirven como herramientas para la neurociencia. Suponen organoides virtuales que permiten a los neurocientíficos estudiar patologías y ensayar posibles tratamientos, de difícil estudio en humanos por cuestiones éticas.</p>
<p>Ante la complejidad del cerebro, la ciencia ha optado por dividir su estudio en el de partes más pequeñas: grupos de neuronas que se agrupan siguiendo una estructura similar o áreas nerviosas vinculadas con una función determinada (cerebelo, hipocampo, ganglios basales…). Estamos en el camino de simular partes del todo. Quizá cuando tengamos todas las piezas del puzle podamos juntarlas y, usando el propio cerebro, comprenderlo.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/433449/original/file-20211123-19-rrp7rj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Ilustración que resalta el cerebelo y las neuronas Purkinje.</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/human-brain-highlighted-cerebellum-close-view-1862377027">Shutterstock / Kateryna Kon</a></span>
</figcaption>
</figure>
<h2>El cerebelo, el cerebro pequeño</h2>
<p>Las alrededor de 86 000 millones de neuronas que tiene el cerebro humano se distribuyen en una estructura muy heterogénea, compleja y aparentemente caótica. Sin embargo, un área destaca justamente por lo contrario, una estructura sencilla y regular. Me refiero al cerebelo (del latín <em>cerebellum</em>, “cerebro pequeño”), ubicado en la parte posterior del cráneo y que concentra más de la mitad de las neuronas del sistema nervioso. </p>
<p>Este área nerviosa integra vías sensitivas y motoras. El cerebelo recibe información procedente de los sentidos, la procesa, y activa una respuesta motora. Juega un papel fundamental en la ejecución de movimientos precisos, la coordinación o el equilibrio. </p>
<p>En el cerebelo se organizan distintos tipos de neuronas que siguen una estructura de capas interconectadas mediante sinapsis. Algunas de estas capas están dotadas de plasticidad, lo que permite el aprendizaje. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=702&fit=crop&dpr=1 600w, https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=702&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=702&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=882&fit=crop&dpr=1 754w, https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=882&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/433445/original/file-20211123-25-sreg5q.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=882&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Dibujo de Santiago Ramón y Cajal de células de Purkinje.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:PurkinjeCell.jpg">Wikimedia Commons / Santiago Ramón y Cajal</a></span>
</figcaption>
</figure>
<p>Ya a principios del s. XX, <a href="https://www.nytimes.com/2018/01/18/arts/design/brain-neuroscience-santiago-ramon-y-cajal-grey-gallery.html">Santiago Ramón y Cajal</a> detalló con gran maestría uno de los tipos de neurona del cerebelo, las células de Purkinje. Posteriormente se ha podido definir el resto de la estructura cerebelosa y estudiar su implicación directa en el aprendizaje motor. </p>
<p>Por ejemplo, si jugamos al tenis y lanzamos la pelota fuera de la pista, el cerebelo <a href="https://www.nature.com/articles/s41593-019-0409-0">aprende</a> a corregir esa desviación entre lo que queríamos realizar y lo que hemos realizado. Es capaz de, mediante ensayo y error, ajustar las acciones motoras para que sus consecuencias se correspondan con nuestras expectativas. </p>
<h2>Neuro-robótica, inspiración biológica</h2>
<p>La robótica tradicional utiliza robots y controladores capaces de ejecutar tareas motoras específicas con alta precisión. Pero si la tarea o el robot cambian se necesita un nuevo controlador. Para desarrollar robots más versátiles, capaces de realizar tareas más complejas, tal y como aprende el tenista del ejemplo anterior, la robótica se <a href="https://www.science.org/doi/full/10.1126/scirobotics.abf6354?casa_token=LsAekvtRP3YAAAAA%3A-oYu8V3VpCkgvV4SglFBTbGbrAijJhI0ft0RS_nFzrMsF5httGAi6wkhuo3XltBheenkmjL9KZRwlB0">inspira</a> en la biología. </p>
<p>Así, en el grupo de investigación Neurociencia Computacional Aplicada (departamento de Arquitectura y Tecnología de Computadores, Universidad de Granada), hemos desarrollado un cerebelo artificial que imita al humano. El <a href="https://www.science.org/doi/full/10.1126/scirobotics.abf2756">estudio</a>, publicado en la revista <em>Science Robotics</em>, aplica el cerebelo simulado para controlar el movimiento de un robot. La estructura homogénea del cerebelo y su papel reconocido en el aprendizaje motor lo convierten en el candidato ideal para poder simularlo y aplicarlo a la robótica. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=900&fit=crop&dpr=1 600w, https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=900&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=900&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1131&fit=crop&dpr=1 754w, https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1131&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/433455/original/file-20211123-24-ym0zr3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1131&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Robot utilizado por el grupo de investigación Neurociencia Computacional Aplicada de la Universidad de Granada.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Utilizando ese modelo simulado de cerebelo humano, que replica las principales características de su homólogo biológico, hemos conseguido que un robot, un brazo robótico, aprenda desde cero qué órdenes debe mandar a sus motores para realizar distintas tareas. </p>
<p>Así como un niño aprende a montar en bicicleta, descubriendo qué órdenes debe mandar a los músculos de sus piernas para mover los pedales y al resto del cuerpo para mantener el equilibrio, el modelo simulado de cerebelo aprende los comandos que debe enviar a los motores del robot para que el brazo ejecute la trayectoria deseada. </p>
<p>Con este controlador, el robot es capaz de <a href="https://ieeexplore.ieee.org/document/8880621">adaptarse</a> a cambios dinámicos, como un peso añadido o una fuerza elástica externa. Es decir, aprende y cambia sus comandos en función de lo que esté ocurriendo en el mundo exterior. </p>
<p>Otra característica innata del cerebelo biológico es su capacidad de predecir acciones futuras utilizando información sensorial pasada. Fisiológicamente, es inevitable que la información sensorial tarde unos milisegundos en llegar al cerebelo, igual que la correspondiente respuesta motora no llega a los músculos de manera inmediata. Tardamos unos milisegundos en responder, por ejemplo, a la pelota que está a punto de darnos en la cabeza. </p>
<p>Para movernos con precisión, el cerebelo compensa estos retardos temporales presentes en el ciclo de percepción-acción mediante un comportamiento predictivo: se adelanta a lo que va a suceder y nos apartamos a tiempo del balonazo. </p>
<p>Esta característica propia del cerebelo biológico nos permite aplicar nuestro modelo simulado en escenarios de control robótico afectados por retardos temporales. En nuestro trabajo, controlamos el robot utilizando una conexión WiFi y también por control remoto, estableciendo una conexión de unos 400 kilómetros entre el controlador (ubicado en Madrid) y el robot (ubicado en Granada). </p>
<p>En los escenarios de control clásico, en los que el robot y controlador se conectan directamente por cable, los retardos temporales son insignificantes. Pero en escenarios cada vez más comunes como el control inalámbrico, remoto, o en la nube, los retardos temporales son inevitables por lo que se necesitan nuevos tipos de controladores robustos ante ese desfase percepción-acción. De nuevo, el controlador que simula el cerebelo humano ofrece una solución a este problema. </p>
<h2>Avances técnicos que aún no imaginamos</h2>
<p>Aún desconocemos cómo se forman la memoria o la creatividad. Estamos lejos de entender el cerebro humano como un todo, y simularlo por completo aún no está en nuestras manos. Pienso que llegaremos a Marte antes que a un conocimiento completo del cerebro. Comprenderlo pasa por estudiar tanto el nivel celular como el más abstracto nivel funcional. Para ello será fundamental continuar con el desarrollo de tecnologías que ofrezcan perspectivas antes imposibles, avances técnicos que probablemente no seamos capaces ni de imaginar a día de hoy. </p>
<p>Quién habría imaginado que unas algas sensibles a la luz serían la clave para revolucionar la neurociencia. Esas algas esconden la base de la <a href="https://www.jstor.org/stable/26002255?casa_token=i1GpypOvLKoAAAAA%3AhBDK2jTU59q8HbGZMuqYJzKm1ltXOUDhg123m6DW80bCbcCmirNC6XzR-cL2fqp7JI--L_v7v4_Vqt1KTfSl-YTr4JWv88KWlM6M9P-0_gOTRPzJH4cp&seq=2#metadata_info_tab_contents">optogenética</a>, una técnica que permite inducir actividad eléctrica en neuronas específicamente seleccionadas para poder estudiar su impacto en la función cerebral y el comportamiento. </p>
<p>La investigación y el desarrollo de nuevas tecnologías exigen tiempo; la evolución ha tenido todo el tiempo del mundo. A la hora de dar respuesta a problemas tecnológicos, investiguemos cómo la evolución ha logrado solventar obstáculos similares hasta alcanzar estables, y variadas, formas de vida. </p>
<p>Quizá la propia biología esconda las respuestas para desarrollar las herramientas que nos permitirán descifrar su mayor logro, el cerebro humano.</p><img src="https://counter.theconversation.com/content/170411/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ignacio Abadía Tercedor recibe fondos de Human Brain Project. </span></em></p>En la Universidad de Granada han diseñado un ‘cerebelo artificial’ para control predictivo de un robot. Simular el cerebro humano es uno de los mayores desafíos científicos en marcha.Ignacio Abadía Tercedor, Investigador predoctoral - Grupo de investigación Applied Computational Neuroscience, Universidad de GranadaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1695562021-10-28T00:19:10Z2021-10-28T00:19:10ZLos peligros de la inteligencia artificial y el uso del rostro humano en internet<figure><img src="https://images.theconversation.com/files/428753/original/file-20211027-27-1667ykx.jpg?ixlib=rb-1.1.0&rect=0%2C8%2C5607%2C3144&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/face-recognition-personal-identification-technologies-street-1783490738">Shutterstock / Trismegist san</a></span></figcaption></figure><p>Cada día compartimos fotografías nuestras y de otras personas en redes sociales. Este acto tan habitual nos expone a posibles delitos digitales contra la privacidad y la identidad personal. Se trata de un problema que aumenta si consideramos la actual falta de legislación en el ámbito de la inteligencia artificial. </p>
<p>Desde que comenzó el milenio vivimos en la que conocemos como era digital, o sociedad de la información y la comunicación. En esta nueva realidad social, la inteligencia artificial nos permite procesar rápidamente grandes cantidades de datos. Estos cálculos ayudan a conocer las tendencias de los mercados, la opinión pública y los cambios atmosféricos. </p>
<p>Su aplicación a la robótica ha marcado grandes avances en medicina, telecomunicaciones y domótica. Estos cambios han modificado nuestra vida diaria, nuestras viviendas y nuestra interacción con los demás. </p>
<p>A diario confiamos en la inteligencia artificial para realizar tareas automáticas de manera eficaz. En muchos sentidos es superior a la inteligencia humana y por ese motivo confiamos más en ella. </p>
<h2>La inteligencia artificial y sus limitaciones</h2>
<p>Entre los principales retos y aplicaciones de la inteligencia artificial están la medicina y el cuidado de personas vulnerables. Sin embargo, es precisamente aquí donde se pone de manifiesto una de las limitaciones de este campo. La falta del componente afectivo limita el uso de las inteligencias artificiales. </p>
<p>A día de hoy no existen robots con una apariencia suficientemente humana para imitar expresiones faciales y emociones. Esa capacidad empática, interpretativa e intuitiva característica del ser humano no existe actualmente en robótica.</p>
<p>La inteligencia artificial también se postulaba como sustituto del humano en contextos educativos que favorecen el aprendizaje autónomo. Sin embargo, la reciente experiencia de educación <em>online</em> debido a la covid-19 ha puesto de manifiesto lo contrario. <a href="https://theconversation.com/educacion-online-frente-a-presencial-no-hay-lugar-como-la-escuela-para-aprender-136353">La interacción cara a cara entre los estudiantes y el profesorado es esencial para el aprendizaje significativo</a>.</p>
<h2>La subjetividad humana y el rostro digital</h2>
<p>Aun teniendo esa gran capacidad de procesar enormes cantidades de datos, la inteligencia artificial <a href="https://theconversation.com/pueden-las-maquinas-entender-las-emociones-humanas-167233">aún no ha conseguido atribuirles significado</a>. Hacer que estos datos sean significativos o relevantes es algo que solo el ser humano puede hacer (lo hacemos continuamente cada vez que, por ejemplo, hacemos “me gusta” o retuiteamos). Es decir, somos nosotros quienes decidimos qué datos son importantes o destacados para cada situación específica. </p>
<p>Esto es debido a que el significado va estrechamente unido a la respuesta ética que la subjetividad humana da frente al rostro de otro ser humano. Sin este mutuo reconocimiento, el <em>big data</em> no significa nada. Por eso a menudo debemos confirmar que “no soy un robot”. Es así como la inteligencia artificial reconoce que nuestra interacción <em>online</em> –nuestro rostro digital– es significativa.</p>
<h2>Los peligros de la inteligencia artificial y las distopías digitales</h2>
<p>La usurpación de la identidad humana <a href="https://theconversation.com/inteligencia-artificial-servidumbre-o-liberacion-98712">es uno de los peligros más temidos en relación con la inteligencia artificial</a>. La ansiedad que este miedo genera se ve reflejada en obras de ciencia ficción tan populares como los clásicos filmes <em>Blade Runner</em> (1982) y <em>Matrix</em> (1999), y más recientemente, series digitales como <em>Black Mirror</em> (2011), <em>Humans</em> (2015), y <em>Maniac</em> (2018).</p>
<p>En todas ellas, el fin de la sociedad que conocemos tiene sus bases en la dominación y control por parte de inteligencias artificiales que simulan el rostro y el comportamiento humano. Sin embargo, los peligros que la tecnología plantea en relación con la utilización del rostro humano en entornos digitales toman una forma diferente, aunque igualmente amenazadora.</p>
<h2>Retos de la justicia frente a la inteligencia artificial</h2>
<p>La utilización del rostro humano en inteligencias artificiales presenta grandes retos para el derecho. El rostro como elemento biométrico que nos identifica como persona está protegido de diferentes formas. Por un lado, los derechos a la identidad y a la autodeterminación van a permitir proteger a los sujetos de las posibles alteraciones que produzca la inteligencia artificial.</p>
<p>Por otro lado, los sistemas de reconocimiento facial están considerados como de alto riesgo en el <a href="https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206&from=EN">borrador de regulación de la inteligencia artificial de la Comisión Europea</a>. Para su utilización se van a tener que testar en sistemas seguros, realizar códigos de conducta y establecer sistemas de cumplimiento ético de gran complejidad. Los casos de utilización de sistemas de vigilancia masivos mediante reconocimiento facial van a ser prohibidos por su gran impacto en la privacidad, libertad y autonomía de los ciudadanos.</p>
<p>El procesamiento de rostros está llegando a un nivel en el que <a href="https://theconversation.com/cuando-ver-ya-no-es-suficiente-para-creer-168687">no vamos a poder distinguir entre lo que es real y lo que es ficticio</a> (como ocurre con los filtros en redes sociales, por ejemplo). Esto produce un gran daño a la reputación de la persona cuyo rostro se está procesando y, además, puede ser utilizado para alterar nuestros sistemas democráticos destruyendo la reputación de nuestros representantes (<a href="https://www.rtve.es/noticias/20200418/deepfakes-bulos-peligro-internet-coronavirus/2012176.shtml">véanse casos recientes de <em>deep fake</em></a>).</p>
<p>Los restos de regulación e impacto en los derechos fundamentales por la utilización maligna de nuestros rostros constituye una amenaza que ha de ser abordada y protegida por los sistemas jurídicos. La finalidad es la de poder seguir siendo persona dentro de un entorno en el que la tecnología nos pueda ayudar a superar los grandes retos que tiene nuestra sociedad.</p><img src="https://counter.theconversation.com/content/169556/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ana Chapman recibe fondos de la Consejería de Economía, Conocimientos, Empresa y Universidad de la Junta de Andalucía y Fondos Europeos de Desarrollo Regional (Proyectos A‐HUM‐22‐UGR20 y P20_00008)</span></em></p><p class="fine-print"><em><span><a href="mailto:mirfer@ugr.es">mirfer@ugr.es</a> recibe fondos del Ministerio de Ciencia, Innovación y Universidades (Proyecto PID2019-106855GB-I00), de la Consejería de Economía, Conocimientos, Empresa y Universidad de la Junta de Andalucía y Fondos Europeos de Desarrollo Regional (Proyectos A‐HUM‐22‐UGR20 y P20_00008), </span></em></p><p class="fine-print"><em><span>Javier Valls Prieto no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Los retos de regulación e impacto en los derechos fundamentales por la utilización maligna de nuestros rostros constituye una amenaza que ha de ser abordada y protegida por los sistemas jurídicos.Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de GranadaAna Chapman, Assistant lecturer, Universidad de MálagaMiriam Fernández-Santiago, Profesora Titular de Universidad, Universidad de GranadaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1557032021-06-06T19:05:15Z2021-06-06T19:05:15Z¿Señores o lacayos de la inteligencia artificial? Una fábula ético-filosófica<figure><img src="https://images.theconversation.com/files/404338/original/file-20210603-17-1wc20bq.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C7500%2C4603&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/robot-hand-making-contact-human-on-1379131412">Shutterstock / sdecoret</a></span></figcaption></figure><blockquote>
<p>“Conseguir crear una Inteligencia Artificial puede ser el mayor logro histórico de la humanidad. Pero también puede ser el último, si no acertamos a evitar sus riesgos.” (<a href="https://derecho.usmp.edu.pe/sapere/ediciones/edicion_8/cultura/Stephen_Hawking.pdf">Stephen Hawking</a>)</p>
</blockquote>
<p>¿Puede la <a href="https://www.arte.tv/de/videos/081590-000-A/ihuman/">Inteligencia Artificial</a> dotar de una nueva dimensión a la humanidad? ¿Esta poderosa herramienta nos convertirá en <a href="https://es.wikipedia.org/wiki/Homo_Deus:_Breve_historia_del_ma%C3%B1ana"><em>Homo Deus</em></a>? ¿O devendremos más bien siervos de una futura deidad que ya controla en buena medida nuestros afectos y preferencias?</p>
<p>Aunque se trate de un <a href="https://theconversation.com/nada-mas-humano-que-la-inteligencia-artificial-157347">invento humano</a>, conviene analizar los escenarios que pueden darse si alguna vez llega una <a href="https://blogs.elconfidencial.com/cultura/tribuna/2021-03-23/ia-inteligencia-artificial_3001116/">superinteligencia artificial</a>. Para ello utilizaremos una suerte de fábula filosófica con su moraleja ética. </p>
<h2>Deshumanización de nuestra relaciones personales</h2>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=327&fit=crop&dpr=1 600w, https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=327&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=327&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=411&fit=crop&dpr=1 754w, https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=411&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/386550/original/file-20210225-21-14pw1sm.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=411&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">El protagonista de la película HER.</span>
</figcaption>
</figure>
<p>Los hallazgos relativos a la Inteligencia Artificial pueden hacernos cobrar conciencia de cómo se van despersonalizando las relaciones humanas. La película <a href="https://www.youtube.com/watch?v=CoLsf8LvZNI"><em>Her</em></a> nos plantea que pudiéramos llegar a enamorarnos de un sofisticado sistema operativo muy superior a <a href="https://es.wikipedia.org/wiki/Siri">Siri</a>. </p>
<p>Al parecer, hoy en día no parece viable diseñar nada homologable a la Samantha de la película, pese a los progresos alcanzados en reconocimientos de voz e imágenes, aunque sí contemos con <a href="https://es.wikipedia.org/wiki/Scarlett_Johansson">Scarlett Johansson</a> para prestarle la calidez de una sugestiva voz humana. El protagonista ya depende sobremanera de sus dispositivos cibernéticos que mediatizan por completo su relación con otras personas y quizá por eso esté predispuesto a enamorarse de su dócil sistema operativo.</p>
<p>Algunos programas informáticos pueden afinar diagnósticos radiológicos, procesar variables en el ámbito judicial e intermediar en las intervenciones quirúrgicas. Pero dudamos de que la Inteligencia Artificial pueda suplir a un cocinero de vanguardia, <a href="https://theconversation.com/los-robots-periodistas-ya-estan-entre-nosotros-140265">periodistas acreditados</a> y mucho menos a nuestro psiquiatra de cabecera. Sin embargo, no se descarta el uso de una industria robótica para cuidar enfermos o ancianos. Cuesta creer que con eso paliemos nuestra creciente sensación de <a href="https://www.youtube.com/watch?v=j2Hc9FkrJFg">soledad</a>.</p>
<h2>¿Androides o dioses manufacturados?</h2>
<p>Al fabricar robots dotados de unas capacidades analíticas prácticamente ilimitadas, en realidad no estaríamos generando algo similar al ser humano, sino que se parecerían más bien a nuestra concepción de los dioses. Las cualidades que pretendemos atribuir a esos presuntos androides exceden nuestra finitud y falibilidad, al propender más bien a otorgarles omnisciencia, omnipotencia e inmortalidad, es decir, cuanto siempre hemos proyectado en una divinidad que imaginamos de modo excelso. </p>
<p>No sería muy difícil que, al poseer unas cualidades tan portentosas, dieran en despreciar a sus creadores por su <a href="https://theconversation.com/covid-19-nos-recuerda-que-no-somos-dioses-y-es-una-buena-noticia-137128">inexorable finitud e infinita torpeza</a>. </p>
<h2>Los múltiples desafíos de la Inteligencia Artificial</h2>
<p>Desde la noche de los tiempos, el ser humano ha concebido dioses a su imagen y semejanza, atribuyéndole sus propias cualidades pero en grado sumo. Ahora las cosas podrían ser diferentes y cobrar un giro totalmente inesperado. Como advierte <a href="https://es.wikipedia.org/wiki/Stephen_Hawking">Stephen Hawking</a>, la Inteligencia Artificial puede ser nuestro mayor hallazgo y quizá el último. </p>
<p>¿Podríamos vernos aniquilados por esta hazaña tecnológica? ¿Lograremos alumbrar <a href="https://www.rtve.es/alacarta/audios/no-es-un-dia-cualquiera/roberto-aramayo-ifs-csic-cafe-9/5799158/">una nueva divinidad materializada</a> en una red neuronal de silicio? Esta diosa tangible cobraría cuerpo en términos cuánticos y su existencia no sería cuestión de fe, al tener una materialidad física. </p>
<figure class="align-left ">
<img alt="" src="https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=401&fit=crop&dpr=1 600w, https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=401&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=401&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=504&fit=crop&dpr=1 754w, https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=504&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/386552/original/file-20210225-17-18tlz4s.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=504&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">El laberinto infinito de Borges.</span>
</figcaption>
</figure>
<p>Tras <a href="https://es.wikipedia.org/wiki/Muerte_de_Dios">la muerte de Dios</a>, y más allá del <a href="http://isegoria.revistas.csic.es/index.php/isegoria/issue/view/63">transhumanismo posthumanista</a>, asistiríamos al nacimiento de una nueva deidad que sería un artefacto diseñado por el ser humano. Su procesamiento de los <a href="https://es.wikipedia.org/wiki/Macrodatos">macrodatos</a>, combinado con un <a href="https://es.wikipedia.org/wiki/Aprendizaje_autom%C3%A1tico">aprendizaje automatizado</a>, le harían finalmente materializar al hipotético lector capaz de abarcar esa biblioteca infinita que <a href="https://es.wikipedia.org/wiki/La_biblioteca_de_Babel">Borges</a> imagina en <em>El jardín de los senderos que se bifurcan</em>.</p>
<p>Este artefacto autodidacta alcanzaría una voluntad propia, capaz de evolucionar por su cuenta y adoptar decisiones autónomas, al margen de lo programado en los <a href="https://es.wikipedia.org/wiki/Algoritmo">algoritmos</a> iniciales y sin tener por qué acatar ninguna pauta humana, ni tampoco las tres <a href="https://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica">Leyes de la robótica</a> de <a href="https://es.wikipedia.org/wiki/Isaac_Asimov">Isaac Asimov</a> o las <a href="https://theconversation.com/la-septima-ley-de-la-robotica-como-hacer-de-los-robots-humanos-ejemplares-104725">enumeradas después</a>. Incluso los poderosos <a href="https://www.revistadelibros.com/articulos/senores-del-aire">Señores del Aire</a> devendrían sus vasallos a la postre.</p>
<h2>La insignificancia del diseñador</h2>
<p>¿Qué impresión causaríamos a una portentosa Inteligencia Artificial capaz de hacer cálculos ilimitados y tener una visión panorámica e instantánea de cuánto cabe hacer? El <a href="http://revistas.uned.es/index.php/endoxa/article/view/17108">dios de Leibniz</a>, al contemplar los infinitos mundos posibles, decide decantarse por el mejor. Pero su homólogo cibernético podría tener otro criterio. </p>
<p>Podremos implantarles simulaciones muy sofisticadas de nuestras emociones, pero siempre le faltará nuestro soporte biológico y aquello que llamamos “alma”, “corazón”, “entrañas”, “espíritu” o “conciencia moral”, por mucho que puedan remedar algo homologable a la <a href="https://theconversation.com/y-si-los-robots-pudieran-tener-conciencia-104783">consciencia</a>. Una implacable y siempre perfectible capacidad analítica terminaría por hacer primar la optimación utilitarista de los resultados, en la estela del desalmado prisma <a href="https://theconversation.com/ultraneoliberalismo-y-liberalismo-desde-la-fabula-de-las-abejas-149057">ultra-neoliberal</a>. </p>
<p>Bajo semejante mirada, los humanos seríamos considerados un resto irrelevante de cualquier ecuación y devendríamos una escoria desechable en esa nueva era presidida por una Inteligencia Artificial capaz de reproducirse a sí misma e incrementar incesantemente sus propias capacidades hasta límites insospechados.</p>
<p>Lo peor de esta fabulación es que ya vivimos un anticipo de semejante pesadilla. Somos cautivos de unos dispositivos digitales que nos fascinan e hipnotizan cada vez más, al imponernos paulatinamente una creciente servidumbre voluntaria y hacernos banalizar nuestra percepción del mal hasta hacernos creer que las atrocidades contempladas o perpetradas podrían ser tan reversibles como las de un videojuego. </p>
<p>Mientras nos empeñamos en dotar con rasgos humanos a los robots, nos vamos robotizando a nosotros mismos. La transición es paulatina e imperceptible, pero vamos entregando las informaciones personales que permiten predecir nuestros comportamientos. Alimentamos un conductismo que nos tiraniza y que hemos contribuido a modelar para esclavizarnos a nosotros mismos.</p>
<p>Una <a href="https://www.rtve.es/radio/20210217/desinformacion-redes-nueva-amenaza-para-democracia/2076437.shtml">desinformación personalizada en las redes</a> decide las contiendas electorales de nuestras democracias. Los Estados, al margen de su tamaño y mutuas alianzas, tienen escaso margen de maniobra frente a las grandes corporaciones empresariales y tecnológicas, cuyas reglas están por encima de unas constricciones legales cuya transgresión está garantizada. Es muy probable que <a href="https://es.wikipedia.org/wiki/Silicon_Valley">Silicon Valley</a> cuente ya con lugares muy similares en la emergente China o esa sibilina Rusia que no presume de logros porque se conforma con ponerlos en práctica.</p>
<p>Quizá lo mejor de la Inteligencia Artificial consista en hacernos reparar sobre todo aquello que nos deshumaniza cada vez más y acaba por <a href="https://www.almendron.com/tribuna/no-hay-etica-para-robots/">robotizarnos a nosotros mismos</a>.</p>
<p>Este sí podría ser el auténtico final de la historia humana. La herramienta con que aspiramos a resolver nuestros grandes problemas actuales: el cambio climático, las pandemias, la pobreza u otras cosas por el estilo, en realidad podría agravar nuestras desigualdades y amplificar la precariedad antes de rematarnos con su absoluto desprecio. Ojalá sea tiempo de recapacitar y poner bridas éticas a cuánto concierne al avance tecnológico. </p>
<p>Más nos valdría respetar nuestro entorno natural y la supervivencia de los organismos biológicos, en lugar de pretender enmendar nuestros abusos con una sofisticada herramienta que quizá no logremos controlar y bien pudiese agravar desigualdades e injusticias de índole social. Las consideraciones éticas deben guiar los avances tecnológicos y <a href="https://theconversation.com/banalizamos-la-etica-156393">no verse invocadas en vano</a> cuando ya es tarde. Potenciemos la inteligencia natural y controlemos ese mal uso de los algoritmos que puede originar tantos dislates.</p><img src="https://counter.theconversation.com/content/155703/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Roberto R. Aramayo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Nos convertirá la inteligencia artificial en Homo Deus o más bien podríamos crear una Dea Ex-Machina, una diosa material para cuyas complejas ecuaciones el ser humano supondría un factor desdeñable?Roberto R. Aramayo, Profesor de Investigación IFS-CSIC (GI TcP Etica, Epistemología y Sociedad). Historiador de las ideas morales y políticas. Proyectos PAIDESOC (FFI2017-82535), BIFISO (PIE-CSIC-CIV19-027), ON-TRUST CM (HUM5699) y PRECARITYLAB (PID2019-10), Instituto de Filosofía (IFS-CSIC)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1433982020-09-17T18:21:19Z2020-09-17T18:21:19ZDigital, electrónico, interactivo… las muchas caras del arte contemporáneo<figure><img src="https://images.theconversation.com/files/358579/original/file-20200917-16-10pbqy2.png?ixlib=rb-1.1.0&rect=0%2C0%2C1900%2C882&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Jodi.org</span> <span class="attribution"><a class="source" href="https://Jodi.org">Jodi.org</a></span></figcaption></figure><p>El arte nunca se queda impasible ante lo que acontece a su alrededor. Desde su invención, el ordenador se incorporó a la gran mayoría de actividades humanas, y en arte comenzó a utilizarse como herramienta. </p>
<p>Al principio (1950), sus usos eran como herramienta generadora de gráficos: bien para hacerlos animados, o bien utilizando el ordenador a modo de artista, generando gráficos autónomos a partir de una orden (algoritmo). A este arte se le denominó como <em>arte generativo</em>, y uno de sus pioneros fue <a href="https://es.wikipedia.org/wiki/A._Michael_Noll">Michael Noll</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=659&fit=crop&dpr=1 600w, https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=659&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=659&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=828&fit=crop&dpr=1 754w, https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=828&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/358578/original/file-20200917-14-1ux9qs2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=828&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Gaussian Quadratic ( Michael Noll, 1963)</span>
<span class="attribution"><a class="source" href="http://3ewbwzgsmv73qse5k1me0h41.wpengine.netdna-cdn.com/wp-content/uploads/2015/12/DSC_8330-copy.jpg">Fuente</a></span>
</figcaption>
</figure>
<h2>No todo lo eléctrico es electrónico, y viceversa</h2>
<p>Conviene distinguir entre los adjetivos electrónico y eléctrico. El primero hace referencia a la utilización de circuitos y componentes eléctricos activos, como leds o resistencias (van modificando la corriente); el segundo se refiere a los materiales utilizados en un flujo de electricidad como cable, batería, etc.</p>
<p>De hecho el uso de la reprografía en los años 60 y 70, como el fax, la fotocopiadora, trajeron un arte hecho electrónicamente, el <em>copy-art</em> o xerografía, como por ejemplo la obra del artista <a href="https://www.galeriacadaques.com/portfolio/items/bruno-munari/">Bruno Munari</a>.</p>
<h2>Del cinético al electrónico</h2>
<p>En los años 60 se produjeron esculturas realizadas con electricidad, pero cuyo potencial o diferenciación artística radicaba en la incorporación del movimiento autónomo. Este arte fue etiquetado como <strong>arte cinético</strong>. Obras que se encuadran en este arte son “Standing Wave” de <a href="https://es.wikipedia.org/wiki/Naum_Gabo">Naum Gabo</a> o “Light Prop for an Electric Stage” de <a href="https://es.wikipedia.org/wiki/L%C3%A1szl%C3%B3_Moholy-Nagy">László Moholy-Nagy</a>. </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/QHdK19meZTk?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption"><em>Light Prop for an Electric Stage</em>, László Moholy-Nagy, 1930 / Harvard Art Museums.</span></figcaption>
</figure>
<p>A partir de este momento nació el término de <em>arte electrónico</em>, con el que se empezó a denominar a cualquier arte en el que interviniese la electricidad: desde el multimedia al interactivo. Pero, dado el desarrollo de sus diferentes facetas, fue necesario subdividir la etiqueta electrónica en diferentes tipologías.</p>
<h2>La evolución hacia el arte digital</h2>
<p>El arte siguió utilizando el ordenador a medida que este se iba haciendo más accesible y potente para todos. En las décadas de los 60 y 70, se usaba sobre todo para hacer composiciones con imágenes y vídeo, las cuales eran modificadas o intervenidas directamente en el ordenador, y a esto se llamó <em>arte digital</em> o también <em>multimedia</em>. En él, la obra se elaboraba a partir de una tecnología informática, siendo el mismo ordenador (o la pantalla) el soporte de exhibición, tal como realiza a partir del año 2000 el artista <a href="https://www.x-is-y.com/ryoji-ikeda-eye-filmmuseum/">Ryoji Ikeda.</a></p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/r2lKWlBM-2w?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Ryoji Ikeda | Eye Filmmuseum.</span></figcaption>
</figure>
<p>Algunos artistas pioneros como <a href="https://es.wikipedia.org/wiki/Nam_June_Paik">Nam June Paik</a> (con su obra “K-456”, 1964) o <a href="https://en.wikipedia.org/wiki/Tom_Shannon_(artist)">Tom Shannon</a> (“Squat”, 1964) fueron pioneros en el uso de la electrónica aplicada al arte para construir robots como estrategia artística de reflexión, pero sin ordenadores. Un arte apellidado <em>arte robótico</em> o <em>robot-art</em>, que más abajo desarrollaremos más profundamente. </p>
<h2>Avances en el ‘software’</h2>
<p>En los 80, el <em>software</em> de los ordenadores se hizo más complejo, haciendo programas de generación de gráficos en tres dimensiones (3D) y de dibujo digital (2D). Los usuarios comenzaron a componer imágenes independientes de la realidad –realidades inventadas–. </p>
<p>Ya no era necesario realizar una fotografía o un vídeo previo, sino que se podía crear píxel a píxel. Desde ese mundo virtual se generaban composiciones, objetos, sonidos o paisajes que no existían en el mundo físico, porque tanto su generación como su forma de exhibirse en una pantalla provenía exclusivamente de una combinación de ceros y unos. </p>
<p>Se trata de un arte desmaterializado, que pasó a llamarse <a href="https://proyectoidis.org/?s=reality+virtual"><em>arte virtual</em></a>. Con la proliferación a finales de los 90 de <em>gadgets</em> 3D, como gafas y guantes, nació la realidad virtual. Dado que esta tecnología no prosperó, el arte también abandonó esta vía de investigación. Podemos encontrar algún ejemplo como Legible City (1988) de Jeffrey Shaw, o el artista <a href="http://reillydonovan.com/">Reilly Donovan</a>. </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/61l7Y4MS4aU?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption"><em>Legible City</em> (Jeffrey Shaw, 1989).</span></figcaption>
</figure>
<h2>El acceso a Internet</h2>
<p>De forma paralela el acceso a internet se hizo más asequible. Las composiciones realizadas por los artistas ya no necesitaban una sala de exposiciones para ser exhibidas. Internet era un nuevo espacio virtual donde todo el que se conectase podía experimentar este arte, denominado <em>net-art</em>. </p>
<p>Internet tenía un ingrediente muy potente: la interactividad. Por primera vez el artista podía recopilar la experiencia de su público mediante una proposición donde el público interactuaba con el ratón y el teclado, de modo que la obra de arte se completaba o se complementaba con la acción al otro lado de la pantalla, convirtiendo la navegación entre las diferentes opciones en una experiencia artística. </p>
<ul>
<li><a href="https://sisif.hangar.org">sisif.hangar.org</a></li>
<li><a href="http://wwwwwwwww.jodi.org/">jodi.org</a></li>
<li><a href="http://insertsilence.com/">insertsilence.com</a></li>
</ul>
<p>Inmediatamente apareció el término “multimedia”, puesto que se disponía de varios medios de comunicación: sonido (micrófono y altavoces), imágenes (fotos, colores, video) y texto, todo junto o por separado al antojo del artista o el programador.</p>
<h2>El arte multimedia</h2>
<p>Algunos artistas rápidamente se percataron de la potencialidad que tenía la interacción y comenzaron a usarla no solo en la web sino también físicamente o través de CD multimedia. También por medio de un ordenador, el cual era ocultado para proporcionar una experiencia más inmersiva y mágica, donde el artista propone nuevas formas de comunicación con las imágenes y los sonidos, e inventando nuevas interfaces (elementos que traducen la información del mundo real al lenguaje informático y viceversa).</p>
<p>A esto se le denominaría <em>arte electrónico</em>, desafortunada etiqueta, puesto que es demasiado amplia para las muchas especificaciones que se desarrollarán. A este tipo de trabajos se les llamó <em>instalación electrónica interactiva</em>, pero a esto convendremos en llamarle <em>arte robótico</em>, porque requiere de 3 acciones: </p>
<ol>
<li><p>entrada de datos (<em>inputs</em>, mediante dispositivos sensores como fotómetros, interruptores, micrófonos, termómetros, cámaras…).</p></li>
<li><p>un procesado o cálculo que realizar con dichos datos. </p></li>
<li><p>una salida de datos (<em>outputs</em>, dispositivos como motores, sonido, luces, pantallas).</p></li>
</ol>
<h2>¿Robótico o interactivo?</h2>
<p>Aclaración: Arte robótico implica el uso de robots, pero un <a href="https://www.flexbot.es/que-es-un-robot/">robot</a> no es solo un mecanismo electromecánico con forma humana (que también puede ser). Un robot también es cualquier dispositivo que gestione información y ejecute ordenes en base a los datos recogidos. </p>
<p>Este es un ejemplo de arte robótico donde no existe un humanoide robot, de la artista Marie Sester </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/678EaXPekFo?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption"><em>Access</em> (Marie Sester, 2007).</span></figcaption>
</figure>
<p>Por ello el arte interactivo puede ser el uso mecánico de poleas y engranajes, o puede ser electrónico y estar implicado un gestor / procesador de información, por ello se le denominará <a href="http://www.ekac.org/kac.roca.sp.html"><em>arte robótico</em></a>.</p>
<p>Aquí, el arte deja de ser un objeto pasivo colgado para ser contemplado, ahora necesita de la acción del espectador para generar su discurso. El espectador manipula, mueve, salta, grita… y en base a estas acciones, el autor ha programado el ordenador para que ejecute diferentes respuestas, provocando una comunicación real con la máquina. Esto supone un gran cambio y una rotación en los roles de público y artista. </p>
<figure>
<iframe src="https://player.vimeo.com/video/165677258" width="500" height="281" frameborder="0" webkitallowfullscreen="" mozallowfullscreen="" allowfullscreen=""></iframe>
<figcaption><span class="caption"><em>Automàtics</em> (Marcel·lí Antúnez y Jordi Arús, 1985). Automatismos sonoros para la acción SUZ/O/SUZ de La Fura dels Baus.</span></figcaption>
</figure>
<h2>Cambio de roles</h2>
<p>Ahora el rol de artista es desempeñado por el público y por el ordenador (o equipo interactivo), puesto que la ejecución depende de la interacción de la respuesta de ambos, siendo esta experiencia la obra en sí misma, además de los creadores.</p>
<p>Y el artista creador, con este tipo de arte, desempeñaría el rol de público, ejerciendo de observador de la experiencia interactiva, anotando los efectos que se consiguen. </p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=753&fit=crop&dpr=1 600w, https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=753&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=753&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=946&fit=crop&dpr=1 754w, https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=946&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/358643/original/file-20200917-18-ycmcrz.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=946&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Captura de pantalla del entorno de desarrollo integrado de Arduino v0011 (Alpha) que muestra un programa para hacer parpadear LED listo para cargar en la placa Arduino.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Arduino_IDE_-_v0011_Alpha.png">Wikimedia Commons / Harvie</a>, <a class="license" href="http://artlibre.org/licence/lal/en">FAL</a></span>
</figcaption>
</figure>
<p>A partir de 2005, y en paralelo a lo anterior, fruto del auge del <em>opensource</em>, se desarrolló en Italia un instrumento electrónico pequeño (placa) capaz de procesar y hacer cálculos en base a las entradas de datos. También podía activar unas salidas para visualizar unas acciones. Esta versátil herramienta es <a href="https://es.wikipedia.org/wiki/Arduino"><em>Arduino</em></a>, un pequeño dispositivo que se programa desde el ordenador, pero una vez programado es autónomo (no necesita el ordenador) y permite realizar sus operaciones con una simple pila. </p>
<p>Esta herramienta está siendo utilizada por muchos artistas interactivos. Permite realizar propuestas de poco tamaño y con autonomía para hacer actuar varios dispositivos, a la vez que mide información del medio que lo rodea. </p>
<p>De esta manera, la instalación interactiva o el <em>arte robótico</em> disfrutan ahora de un gran desarrollo. Aunque no tanto en el mercado del arte (por su dificultad instalativa), sí en Festivales de arte y exposiciones de todo el mundo.</p><img src="https://counter.theconversation.com/content/143398/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Agustín Linares Pedrero no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Desde los primeros gráficos del arte generativo, hasta las instalaciones interactivas robóticas en las que el público “crea” la obra de arte: desgranamos, cronológicamente, las diferentes subcategorías del arte digital.Agustín Linares Pedrero, Associate professor, Dr. / Phd. Department of Fine Arts and Architecture. Faculty of Fine Arts., Universidad de MálagaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1308122020-01-29T20:42:36Z2020-01-29T20:42:36ZMi cirujano, el Dr. Robot<figure><img src="https://images.theconversation.com/files/312460/original/file-20200129-92954-vkb91a.jpg?ixlib=rb-1.1.0&rect=14%2C0%2C4977%2C3323&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/smart-precision-healthcare-technology-artificial-intelligence-734412034"> Zapp2Photo / Shutterstock</a></span></figcaption></figure><p>¿Se pondría en manos de un robot para una cirugía? Todos hemos visto alguna película de ciencia ficción en las que un robot cura de forma autónoma a una persona. Pero claro, es ciencia ficción. ¿O tal vez no?</p>
<p>Los robots en cirugía existen desde hace más de lo que imaginamos. En 1983, mientras la mayoría de los españoles gozaban de la tecnología punta de la televisión en color, comprada el año anterior para ver el mundial de fútbol, se ponía en marcha el primer robot que colaboraba en el quirófano. El departamento de Ingeniería Biomédica del Hospital General de Vancouver (Canadá) daba vida a <a href="https://www.researchgate.net/publication/3930231_ARTHROBOT_A_new_surgical_robot_system_for_total_hip_arthroplasty">ARTHROBOT</a>, el cual obedecía al cirujano mediante órdenes por voz. ARTHROBOT ayudaba a mover o girar las piernas de los pacientes en intervenciones en rodillas. Bueno, vale, no era un robot autónomo pero… ¡era 1983! </p>
<p>Llegados a este punto, tendríamos que definir en qué medida hablamos de mecanismos que asisten al personal clínico, y hasta qué punto son robots plenamente autónomos. Lo cierto es que la mayoría son sistemas que sirven para asistir al cirujano. El más popular hoy en día es el robot Da Vinci, desarrollado por la empresa americana Intuitive Surgical, que se ha hecho tan popular que hasta tuvo su minuto de gloria <a href="https://www.youtube.com/watch?v=ZYJaf25ZEAo">cosiendo una uva</a> en el programa nocturno español “El Hormiguero”. </p>
<p>Si nos preguntamos por el más avanzado en la actualidad, ese es el robot <a href="https://childrensnational.org/research-and-education/sheikh-zayed/projects/bioengineering/smart-tissue-anastomosis-robot-star">STAR</a>, desarrollado por el estadounidense Children’s National Hospital, que sí que es un robot autónomo. Porque realiza él solito suturas en tejidos blandos, y aparentemente lo hace mejor que los propios cirujanos. </p>
<p>STAR está diseñado para realizar anastomosis, que es una conexión quirúrgica entre dos estructuras tubulares, es decir, con forma de tubo, como los vasos sanguíneos o las asas del intestino. Por ejemplo, cuando se corta quirúrgicamente parte de un intestino, los dos extremos restantes se cosen o se engrapan juntos. </p>
<p>Y no podemos dejar de hablar del <a href="https://www.eurekalert.org/pub_releases/2019-04/bch-afi042219.php">minúsculo robot</a> desarrollado por un grupo de investigadores del Hospital Infantil de Boston (EE UU) que ha conseguido navegar de forma autónoma por el interior de un cerdo, llegando a su corazón para reparar una fuga. </p>
<h2>Hipernav, robots contra el cáncer</h2>
<p>En Europa, y gracias al proyecto <a href="https://hipernav.eu">Hipernav</a>, estamos trabajando para que los robots lleguen a operar tumores en tejidos blandos. De momento hemos avanzado mucho en cáncer de hígado, y después será el turno del páncreas. </p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/312445/original/file-20200129-93007-4rs1pn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Preparados para iniciar la cirugía en el proyecto HIPERNAV. En la pantalla central, el hígado en 3D.</span>
<span class="attribution"><span class="source">Proyecto Hipernav</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Todo empieza con la reconstrucción de imágenes tridimensionales provenientes de resonancia magnética, tomografía axial computerizada o ultrasonidos. Luego se ponen en marcha algoritmos de navegación para que el instrumental laparoscópico sea autónomo. Y se analiza la estructura de los tejidos, con idea de hacer la resección más precisa, sin dañar tejido sano, venas y arterias. </p>
<p>¿Parece fácil? Pues no lo es en absoluto. Imaginemos una intervención con cámaras minúsculas dentro del cuerpo, que deben ayudar a diferenciar entre los distintos órganos y tejidos, un amasijo aplastado, blandito, que se deforma con la presión del instrumental, y al que añadimos sangre y humo. Todo un reto. </p>
<p>Aumentar la precisión en las intervenciones, así como realizarlas de la forma menos invasiva posible, tiene varias consecuencias. Entre ellas que la intervención dura bastante menos y que, al resultar menos invasiva, el paciente se recupera mucho antes. </p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/312444/original/file-20200129-92992-e4xc6x.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Manipulando virtualmente el hígado dentro del proyecto HIPERNAV.</span>
<span class="attribution"><span class="source">Proyecto Hipernav</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Lo explicaremos con un ejemplo. Cuando una persona padece un cáncer de hígado, tradicionalmente se divide el hígado en ocho porciones delimitadas por los principales vasos sanguíneos. Luego se practica una cirugía abierta y en la operación se extraen las secciones que contienen tumores. Frente a ello, una laparoscopia solo hace unos pequeños orificios en el paciente. Y resecciona únicamente el tumor y algo más de tejido a modo de perímetro de seguridad. </p>
<h2>Todo son ventajas</h2>
<p>Como consecuencia, nuestro paciente ha pasado de someterse a una operación de varias horas a salir del quirófano en menos de una. Además de que ha perdido una parte mucho menor del órgano, ha habido menos pérdida de sangre, su hígado se va a recuperar mucho antes, va a tomar menos medicinas y analgésicos al ser una recuperación más rápida, el postoperatorio se va a reducir a muy pocos días y su vida se va a alargar. Encima, como su paso por el quirófano y el hospital se ha reducido, se podrá operar a más gente, se abaratarán los costes y se emplearán menos hemoderivados. Todo ventajas. </p>
<p>Los robots en cirugía ya pueden aportar precisión, pueden realizar trabajos en posiciones complejas, en espacios reducidos y ser autónomos en algunos casos. Pero quedan aún retos enormes. Porque necesitan manejar el conocimiento de los expertos, tomar decisiones, reconocer perfectamente el tipo de tejidos que tienen por delante, qué y cómo deben trabajar con ellos. Es fácil predecir que aún seguirán por mucho tiempo funcionando bajo la supervisión de expertos cirujanos. Pero también es incuestionable que las técnicas de inteligencia artificial, la nanotecnología, los procesadores avanzados, van a ayudar mucho. Y que se avecinan avances rápidos.</p>
<p>Ya están aquí los doctores Robot… y han venido para quedarse.</p><img src="https://counter.theconversation.com/content/130812/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Este proyecto ha recibido financiación del programa de investigación e innovación Horizon 2020 de la Unión Europea bajo la subvención Marie Skłodowska-Curie nº 722068.</span></em></p>¿Se pondría usted en manos de un robot para una cirugía? Los robots que operan existen hace más de lo que imaginamos. Incluso hay algunos que ya son autónomos. El proyecto universitario europeo Hipernav trabaja para que los robots operen tumores.Joaquín Olivares, Profesor de Informática y Electrónica. Líder del Grupo de Investigación en Informática Avanzada, Universidad de CórdobaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1296522020-01-19T21:04:15Z2020-01-19T21:04:15Z¿Qué sabe de usted su robot aspirador?<figure><img src="https://images.theconversation.com/files/310263/original/file-20200115-134789-1nt3rvh.jpg?ixlib=rb-1.1.0&rect=0%2C207%2C4200%2C2584&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/young-girl-eating-popcorn-during-movie-787348768">Diego Cervo/Shutterstock</a></span></figcaption></figure><p>Durante los últimos años, uno de los productos más vendidos durante las jornadas de rebajas conocidas como <em>Black Friday</em> o <em>Cyber Monday</em> ha sido el robot aspirador. Sus avanzadas prestaciones, que permiten su puesta en marcha y funcionamiento cuando el usuario está ausente de su domicilio, han seducido de forma clara a los compradores. </p>
<p>Pero este éxito de ventas ha venido acompañado también de algunas dudas: ¿están estos robots adquiriendo datos sensibles que pueden ser vendidos en el mercado global de los datos personales? </p>
<h2>¿Qué tipo de datos recogen Roomba y compañía?</h2>
<p>El robot aspirador ha sido el primer caso de éxito de la robótica en el ámbito doméstico. En 2002 se fabricó la primera serie de robots Roomba, formada por 15 000 unidades, que se vendió en unas pocas semanas. 18 años más tarde <a href="https://www.therobotreport.com/robotic-cleaning-market-growing-exponentially/">se han vendido millones de unidades</a> y los robots aspiradores representan una importante cuota de mercado en el sector de la limpieza. </p>
<p>Estos agentes electrónicos han evolucionado en distintas direcciones, desde la incorporación de nuevas prestaciones como la capacidad de fregar suelos a la mejora de su “comportamiento inteligente”. Hoy en día disponen de sofisticados sistemas de navegación que les permiten volver a su base de carga en caso necesario y también optimizar la limpieza de una planta entera. </p>
<p>Pero más allá de la guerra de precios y del aumento de sus prestaciones, los robots domésticos han sido protagonistas en los últimos tiempos de <a href="https://www.nytimes.com/2017/07/25/technology/roomba-irobot-data-privacy.html">alguna polémica</a> relacionada con los datos que recogen sus sensores. </p>
<p>La mayoría de estos aparatos son capaces de usar los sensores para construir un mapa del espacio que deben limpiar y en el caso de los más sofisticados, utilizar cámaras que les permiten identificar obstáculos diversos. Estos mapas pueden ser consultados por los usuarios desde sus móviles usando la aplicación correspondiente. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=454&fit=crop&dpr=1 600w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=454&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=454&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=570&fit=crop&dpr=1 754w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=570&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=570&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Mapa creado por un robot doméstico de limpieza.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/41593446@N00/49383884198/">Jordi Vitrià/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<p>No es pues ningún secreto que la incorporación a nuestro entorno doméstico de robots semiautónomos conlleva un nivel de captación de datos muy avanzados: mapas de nuestra vivienda, imágenes, registros de temperatura y humedad, registros horarios, etc. </p>
<p>El <a href="https://www.reuters.com/article/us-irobot-strategy/roomba-vacuum-maker-irobot-betting-big-on-the-smart-home-idUSKBN1A91A5">anuncio</a> en 2017 por parte del fabricante de Roomba de la posible compartición de algunos de estos datos generó una primera polémica, aún no cerrada, sobre el derecho a la privacidad en el ámbito doméstico. ¿Debemos aceptar que se compartan datos sobre nuestra vivienda? ¿Qué límites se deben imponer? ¿Qué mecanismos tenemos para ejercer nuestros derechos?</p>
<p>La privacidad será, al menos durante la primera mitad del siglo XXI, una de las fuentes de conflicto en un mundo donde la captación de datos personales se ha simplificado extraordinariamente y en el que el cruce de diversas fuentes de datos permite crear perfiles muy precisos de los ciudadanos. </p>
<p>Las ventajas que aportará la digitalización y la robotización de nuestro entorno deberán <a href="https://theconversation.com/los-investigadores-deben-reflexionar-sobre-los-aspectos-eticos-del-uso-del-big-data-123693">ser analizadas críticamente</a> para no caer en modelos que facilitan la <a href="https://theconversation.com/como-algunas-empresas-usan-datos-de-nuestro-telefono-para-decidir-cuanto-cobrarnos-112392">manipulación social</a> por parte de los grandes agregadores de datos. </p>
<h2>¿Cómo se entiende la privacidad en este caso?</h2>
<p>La privacidad se puede definir como la capacidad de modular y controlar el acceso de terceros a nuestra información personal. No es un concepto simple. Para ejercer esta capacidad hacen falta herramientas y protocolos. </p>
<p>En el caso que nos ocupa, la captación de datos de nuestra vivienda se debería efectuar con una serie de requerimientos mínimos por parte de los fabricantes:</p>
<ul>
<li><p>El primero, el compromiso por defecto de no compartir ni vender estos datos a terceros sin el consentimiento expreso del usuario, preservando su intimidad, usando una estrategia que se ha llamado <a href="https://en.wikipedia.org/wiki/Privacy_by_design"><em>privacy by design</em></a>. </p></li>
<li><p>En el caso de solicitar el consentimiento, hacerlo de forma <a href="https://edps.europa.eu/data-protection/our-work/subjects/transparency_en">transparente</a>. La transparencia se refiere a definir de forma muy clara las intenciones de la demanda y el uso previsto de los datos: no es lo mismo ceder estos datos para que el fabricante mejore el producto en el marco de un proceso interno que venderlos a un tercero que los podrá usar para fines desconocidos. </p></li>
<li><p>Por último, hace falta poner a disposición del cliente mecanismos efectivos para ejercer sus derechos. La empresa debe hacerse <a href="https://edps.europa.eu/data-protection/our-work/subjects/accountability_en">responsable</a> del uso y consecuencias de la tecnología que utiliza. </p></li>
</ul>
<h2>¿Deberíamos estar preocupados?</h2>
<p>Aunque los datos personales que usa una aspiradora robotizada puedan parecer inocuos, su combinación con otras fuentes de datos, también inocuos cuando son considerados de forma independiente, tienen un alto valor para algunas empresas por su capacidad predictiva y también de manipulación, como han demostrado los últimos <a href="https://ieeexplore.ieee.org/document/8436400">escándalos alrededor de Cambridge Analytica</a>. </p>
<p>No hay ninguna prueba de que se haya producido ninguna fuga de datos relacionados con los robots aspiradores hasta el día de hoy. Incluso podemos afirmar que algunas empresas han avanzado en la implementación de los requerimientos de privacidad, pero el tema no está cerrado y hace falta mantener el foco sobre él. </p>
<p>Por una parte, la falta de una regulación que vaya más allá de la <a href="https://ec.europa.eu/info/law/law-topic/data-protection_es">normativa europea de protección de datos</a> hace difícil controlar el comportamientos de nuevas empresas en este ámbito con fuertes presiones para ampliar su cuota de mercado.</p>
<p>Por otra parte, <a href="https://twitter.com/carljackmiller/status/1133320833076748289">estudios independientes</a> parecen indicar que los datos de algunas aspiradoras robóticas son transmitidos a países con una legislación excesivamente laxa respecto a la privacidad.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1133320833076748289"}"></div></p>
<p>Si queremos mantener nuestra preocupación a niveles moderados hace falta una doble acción: dar soporte a las iniciativas de monitorización pública de cualquier elemento con capacidad de captura de información personal y también promover nuevas iniciativas legislativas que apoderen al ciudadano ante esta nueva realidad.</p><img src="https://counter.theconversation.com/content/129652/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jordi Vitrià no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Debemos aceptar que se compartan los datos que los robots de limpieza recogen en las viviendas? ¿Qué límites se deben imponer? ¿Qué mecanismos tenemos para ejercer nuestros derechos?Jordi Vitrià, Catedrático de Informática, Universitat de BarcelonaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1290522020-01-15T17:43:54Z2020-01-15T17:43:54ZEl futuro de la robótica en las distopías cinematográficas<figure><img src="https://images.theconversation.com/files/308075/original/file-20191220-11929-13a5s43.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C3928%2C2037&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Sello impreso en Gran Bretaña dedicado a la película 2001 Una Odisea del Espacio.</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/united-kingdom-circa-2014-stamp-printed-254520397">Shutterstock / Neftali</a></span></figcaption></figure><p>Las cuestiones relativas a la robótica y a lo que se ha dado en llamar “inteligencia artificial” están a la orden del día. Mientras el cambio climático y los giros de la nueva política global nos inquietan sobremanera, el tema de la robótica nos fascina y hace volar nuestra imaginación. </p>
<p>Sin embargo, como en todo avance científico y tecnológico de gran calado, los objetivos que nos propongamos deberían verse modulados por la reflexión ética. Si no queremos convertir en una pesadilla lo que podría ser el cumplimiento de un hermoso sueño tantas veces preterido.</p>
<h2>El efímero sueño de la revolución industrial</h2>
<p>La revolución industrial parecía poder liberarnos de los trabajos más pesados gracias a las nuevas maquinarias.<a href="https://es.wikipedia.org/wiki/Charles_Dickens">Dickens</a> acertó a describir en algunas de sus novelas cómo semejante utopía se malogró al dar sus primeros pasos. En realidad abrió paso a la explotación infantil de las fábricas decimonónicas. Las ulteriores cadenas de montaje se verían inmortalizadas en los años treinta del siglo pasado por el Chaplin de <a href="https://www.youtube.com/watch?v=CRSvbjk6Q1s"><em>Tiempos modernos</em></a></p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=858&fit=crop&dpr=1 600w, https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=858&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=858&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1078&fit=crop&dpr=1 754w, https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1078&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/308074/original/file-20191220-11891-165bs8w.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1078&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Cartel de la película Metrópolis (Fritz lang, 1927)</span>
</figcaption>
</figure>
<p>Fritz Lang nos mostró una futurista <em>Metrópolis</em>. En ella los trabajadores han de inmolarse para que siga funcionando sin descanso una sacrosanta maquinaría denominada <a href="https://www.youtube.com/watch?v=w7-fINQZUIM"><em>Moloch</em></a>-. </p>
<p>Mientras tanto un robot pretende promover una rebelión violenta. Su parecido le hace suplantar a quien puede mediar en el conflicto entre las élites y los trabajadores para resolverlo pacíficamente sin recurrir a la violencia. </p>
<p>Esta magistral película situaba cronológicamente la ficción que narra un siglo después de su estreno. En el muy lejano por aquel entonces año 2026.</p>
<h2>Emociones e inteligencia artificial</h2>
<p>Una de las películas que Kubrick dejó sin realizar se titulaba precisamente <em>Inteligencia Artificial</em>. Su perfeccionismo le hizo esperar que las técnicas cinematográficas avanzaran en el terreno de los efectos especiales. Finalmente fue <a href="https://www.youtube.com/watch?v=_04BDeCHU_g">Steven Spielberg</a> quien llevó a la gran pantalla ese título. Centró su relato en unos padres que deben conformarse con adoptar un robot como hijo. Los esquilmados recursos del planeta desaconsejan la procreación.</p>
<p>Resulta inevitable citar aquí la primera <a href="https://es.wikipedia.org/wiki/Blade_Runner"><em>Blade Runner</em></a>. Esta se ambienta por cierto en 2019. En ella un robot decide encontrar a su hacedor para preguntarle por qué le ha hecho mortal pudiendo no serlo. Se despide llorando de su robótica existencia en la legendaria escena conocida como “lágrimas bajo la lluvia”.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/5BIakRTq25E?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<h2><em>Cyborgs</em> compasivos que no sean <em>Terminators</em></h2>
<p>Los avances de la robótica son muy prometedores en algunos terrenos. Pueden llegar a procurarnos cosas realmente útiles. Como vemos con esas prótesis que suplen a nuestras extremidades. O esos artilugios altamente sofisticados que permiten expresarse a personas con graves dolencias como la padecida por <a href="https://es.wikipedia.org/wiki/Stephen_Hawking">Stephen Hawking</a>. </p>
<p>Explorar el universo de los futuros <a href="https://es.wikipedia.org/wiki/C%C3%ADborg"><em>cíborgs</em> </a>es un extraordinario desafío para la ciencia. Pero esa industria podría dar lugar a <a href="https://es.wikipedia.org/wiki/The_Terminator"><em>Terminators</em></a> o <a href="https://es.wikipedia.org/wiki/RoboCop"><em>RoboCops</em></a> prácticamente indestructibles y diseñados tan sólo para grandes hazañas bélicas. Esto sólo haría las delicias de quienes ganan mucho dinero con la lucrativa industria del armamento.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=419&fit=crop&dpr=1 600w, https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=419&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=419&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=527&fit=crop&dpr=1 754w, https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=527&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/307796/original/file-20191218-11951-116sdgg.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=527&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">2001, una odisea en el espacio.</span>
</figcaption>
</figure>
<p>También Hall 9000 en <em>2001, una odisea en el espacio</em>, pese a no ser tan siquiera un androide y no tener apariencia humana, expresa su irresistible temor a ser desconectado. Manifiesta su anhelo de no fenecer. Solicita para sí mismo esa piedad que no ha dispensado a la tripulación del <em>Discovery</em>. Aunque no logre suscitar compasión alguna en el único superviviente de la nave.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/L1BRnD8BE58?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Dexconexión Hall 9000.</span></figcaption>
</figure>
<p>Ya hemos comprobado que la inteligencia artificial puede ganar a los campeones mundiales de ajedrez y de cualquier otro juego por complejo que sea este. Son capaces de hacer movimientos tácticos y <a href="https://www.lavanguardia.com/ciencia/20181206/453396865826/inteligencia-artificial-alphazero-deepmind-juegos-mesa-ajedrez-go-shogi.html">desplegar estrategias que no estaban programadas</a>. Así las cosas, la gran pregunta es: ¿pueden estas máquinas experimentar algo similar a nuestras emociones? Eso sucede con algunos de los robots que protagonizan <em>Blade Runner</em>. Se creen tan humanos como para llegar a enamorarse.</p>
<h2>La ética como guía</h2>
<p>La ética no puede dictar las pautas de sus descubrimientos a los ingenieros. Pero sí debe orientarlos. Le corresponde recordar cosas tan básicas como las <a href="https://www.unebook.es/es/libro/fundamentacion-de-la-metafisica-de-las-costumbres_202199">distinciones kantianas</a> entre fines y medios, personas y cosas, o dignidad y precio.</p>
<p>Fomentar y extender la cultura humanística ha de ser algo tan importante como potenciar los avances tecnológicos. En el Siglo XVIII pensadores como <a href="https://es.wikipedia.org/wiki/Discurso_sobre_las_ciencias_y_las_artes">Rousseau</a> o <a href="https://www.unebook.es/es/libro/que-es-la-ilustracion_136579">Kant</a> ya nos advirtieron de que nuestra índole moral puede llegar a ser inversamente proporcional a nuestro ingenio tecnológico. Es un error en el que se ha incurrido demasiadas veces. Deberíamos velar por no repetirlo. </p>
<p>Apostar ciegamente por un innovador y revolucionario avance tecnológico como el de la inteligencia artificial, sin ponderar sus efectos desde una perspectiva moral del mismo, puede pasarnos grandes facturas.</p>
<h2>Evitar un mundo de pesadilla</h2>
<p>Estamos planteando si las empresas deben cotizar por sus trabajadores cibernéticos y otras cosas por el estilo. Previamente deberíamos diseñar planes de actuación con unas metas muy precisas que no desdeñen los problema morales inevitablemente asociados a esos recursos.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=800&fit=crop&dpr=1 600w, https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=800&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=800&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1005&fit=crop&dpr=1 754w, https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1005&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/307833/original/file-20191218-11909-40ux24.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1005&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Robot en Tokyo (foto de R.R. Aramayo)</span>
</figcaption>
</figure>
<p>Imaginar la humanización de los androides resulta muy estimulante. Pero tampoco estaría mal preocuparnos por la creciente robotización de los humanos. Cada vez estamos más pendientes de lo que pasa en la pantallas del móvil o del ordenador. En cambio menospreciamos cuanto sucede a nuestro alrededor entre los congéneres.</p>
<p>Cuando queremos gestionar algún trámite por teléfono, tenemos que tratar con un insufrible contestador automático. Si recurrimos a internet, nos obligan a identificarnos como humanos ante un robot cibernético. Hemos de marcar algunas casillas para demostrarle que nosotros no somos otro robot…</p>
<p>Algunos indicios como estos nos hacen creer que Ridley Scott acertó plenamente al situar su célebre <em>Blade Runner</em> en el año 2019. Cabe preguntarse por tanto bajo qué condiciones culturales y tecnológicas celebraremos en 2027 el primer centenario de la futurista <em>Metrópolis</em>.</p>
<p>Para cincelar un futuro alternativo al brindado por las futuristas distopias cinematográficas, el <a href="http://isegoria.revistas.csic.es/index.php/isegoria/article/view/172/172"><em>talante</em> moral</a> del que nos habló <a href="http://isegoria.revistas.csic.es/index.php/isegoria/article/view/170/170">Aranguren</a> debe servir como brújula para orientar nuestros <em>talentos</em> científico-tecnológicos.</p><img src="https://counter.theconversation.com/content/129052/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Roberto R. Aramayo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>El mundo que plantean las películas futuristas ya está aquí: tenemos en nuestras manos la posibilidad de evitar que el desenlace sea tan catastrófico como en el cine.Roberto R. Aramayo, Profesor de Investigación IFS-CSIC. Historiador de las ideas morales y políticas, Instituto de Filosofía (IFS-CSIC)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1273842019-12-03T20:25:27Z2019-12-03T20:25:27Z¿Cuáles serán los perfiles laborales más demandados?<figure><img src="https://images.theconversation.com/files/304101/original/file-20191127-112526-1p7gph7.jpg?ixlib=rb-1.1.0&rect=8%2C0%2C5973%2C2982&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/competition-people-robots-jobs-technological-revolution-1373410898">Studiostoks / Shutterstock</a></span></figcaption></figure><p>¿La inteligencia artificial y la robótica cambiarán nuestra vida personal y laboral? ¿Perderemos el trabajo o los robots son tan solo una moda? </p>
<p>Hay varios momentos en la historia que marcan un cambio definitivo en el curso de la humanidad: el saber producir el fuego, la invención de la rueda, la pólvora o la energía nuclear. Estos hechos cambiaron el rumbo del ser humano.</p>
<h2>Cambio en las relaciones de trabajo</h2>
<p>Hoy hay acontecimientos que están produciendo cambios de forma acelerada. Son los relacionados con la robótica y la inteligencia artificial. Ambos fenómenos están cambiando las relaciones laborales a nivel mundial y el sector de los recursos humanos, el liderazgo y el ordenamiento jurídico que regula estos aspectos.</p>
<p>La perspectiva <a href="https://www.xataka.com/robotica-e-ia/inteligencia-artificial-reemplazara-40-trabajos-proximos-15-anos-asegura-kai-fu-lee-pionero-ia">para el año 2025</a> es que afectarán a millones de empleos. Según las cifras del <a href="https://www.weforum.org/reports/the-future-of-jobs-report-2018">Foro Económico Mundial</a> se destruirán <a href="https://www.xataka.com/robotica-e-ia/automatizacion-eliminara-75-millones-empleos-para-2025-creara-133-millones-nuevas-funciones-wef">unos 75 millones de empleos</a> pero se crearán otros 133 millones, para los cuales se requiere una formación muy específica y un conocimiento robusto. </p>
<p>Por lo tanto, el problema radica en el reentrenamiento de las personas y de los equipos de trabajo y en la reestructuración de los modelos de empresa. </p>
<p>En Finlandia, por ejemplo, las empresas automatizadas están necesitando empleados, pero no hay suficientes con las competencias y habilidades <a href="https://www.bbva.com/es/nuevas-competencias-profesionales-requeridas-revolucion-digital-globalizacion/">necesarias en ese mercado laboral</a>.</p>
<p>La tendencia es que poco a poco se sustituyan los trabajos manuales y repetitivos. La creatividad, las artes, los especialistas en marketing digital, los profesores con competencias digitales, los auditores de innovación digital, los forenses informáticos, los abogados y legisladores que entiendan el paradigma informático serán, entre otros, <a href="https://www.channelpartner.es/negocios/noticias/1109660002202/estos-profesionales-informaticos-mas-demandados-y-salarios.1.html">los perfiles más demandados</a>.</p>
<h2>El uso de la inteligencia artificial</h2>
<p>En un <a href="http://www.academicus.edu.al/nr20/Academicus-MMXIX-20-106-118.html">artículo</a> publicado recientemente en la revista científica albanesa <em>Academicus</em> analizo en profundidad este cambio, que no es una moda, sino que está impactando todas las áreas de la empresa tal y como las conocemos hoy en día.</p>
<p>Junto a los nuevos perfiles, hay otros ya existentes que verán cómo sus tareas se simplifican con el uso de la inteligencia artificial. Los ejemplos más claros son la automatización de la <a href="https://audalialumesse.com/la-automatizacion-en-rr-hh/">criba de currículums en el área de recursos humanos</a>, la localización de sentencias en sistemas legales como el anglosajón que ya está siendo agilizada con procesos automatizados, y los analistas financieros, que solo serán necesarios para las recomendaciones de venta de carteras, pues para la adquisición de las mismas la inteligencia artificial está haciendo ya ese papel.</p>
<h2>La cuarta Revolución Industrial</h2>
<p>Estamos viviendo la cuarta Revolución Industrial. Muchos modelos de negocio sufren importantes cambios. Grandes empresas como Nokia o Blackberry lo han sentido muy claramente, y eso que eran empresas de productos tecnológicos, pero si no innovamos constantemente otros lo harán, y tanto las empresas como el consumidor quieren maximizar las ganancias y facilitarse la vida.</p>
<p>No son un secreto las miles de <em>apps</em> para el móvil que salen al mercado todos los días para solucionar una cosa u otra, problemas incluso que jamás nos habíamos planteado o situaciones que serían impensables: por ejemplo, una <em>app</em> para tener conversaciones ficticias.</p>
<p>Pero la perspectiva actual no pinta bien para muchas personas que están siendo <a href="https://www.sage.com/es-es/blog/uberizacion-del-empleo-todas-las-claves-para-entenderla/">“uberizadas”</a>, es decir, que no están amparadas por contrato alguno (y, de tenerlos, llegan a ser de 24 horas o menos). También el derecho a la huelga se extingue de forma muy evidente. </p>
<p>Vemos sistemas como el <a href="https://www.amazon.jobs/es/teams/mechanical-turk">Mechanical Turk de Amazon</a>, que paga centavos por hacer tareas repetitivas, como ordenar alfabéticamente miles de bases de datos en 24 horas. </p>
<p>La robotización y la implantación de la IA están impactando incluso a los modelos de gobierno electrónico y su forma de relacionarse con los ciudadanos. Ya los parques tecnológicos serán cosa del pasado, pues el trabajar desde casa se volverá aún más común de lo que es ahora.</p>
<p>En resumen, los constantes cambios tecnológicos y su impacto en la fuerza laboral están causando un efecto dominó que puede cambiar la cultura corporativa, las leyes y los trabajadores en los próximos años. Y esos cambios y transformaciones digitales seguirán aumentando.</p><img src="https://counter.theconversation.com/content/127384/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jessica Bayón Pérez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Dentro de tan solo cinco años se crearán unos 133 millones de empleos, para los cuales se requiere una formación muy específica. El mundo está cambiando y la tecnología (sobre todo, la inteligencia artificial) están a punto de revolucionar el mercado laboral.Jessica Bayón Pérez, Coordinadora de la clínica jurídica. Profesora de Derecho del Trabajo y Seguridad Social y Recursos Humanos., Universidad NebrijaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1250342019-10-27T20:47:01Z2019-10-27T20:47:01ZEl reto de una robótica e inteligencia artificial honesta con las personas<figure><img src="https://images.theconversation.com/files/297294/original/file-20191016-98644-rx4dvn.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C6000%2C3997&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/robot-holds-finger-near-head-3d-638342005?src=e8STJmLtX3AQ22SVRi71rA-1-2">Shutterstock/Tatiana Sherepeva</a></span></figcaption></figure><p>La robótica y la inteligencia artificial (RIA) están cambiando nuestras sociedades mientras afectan a los derechos fundamentales de las personas. Al mismo tiempo, son campos considerados como los de mayor desarrollo económico del siglo XXI, por lo que España no puede quedarse al margen. Pero esta innovación tecnológica necesitará un sistema de legitimación para evitar que la ciudadanía le dé la espalda <a href="https://theconversation.com/los-algoritmos-tambien-discriminan-a-los-seres-humanos-nosotros-podemos-impedirlo-124794">debido a sus riesgos</a>.</p>
<p>Los datos indican que Europa, <a href="https://theconversation.com/big-data-o-como-eeuu-y-asia-adelantan-en-investigacion-e-innovacion-a-europa-123111">en comparación con EE. UU. y China</a>, se encuentra unos pasos por detrás en el desarrollo de estas tecnologías. Por eso la Unión Europea está invirtiendo mucho dinero en el fomento de la robótica y la inteligencia artificial. No solo en su desarrollo, sino en cómo se regulará desde el punto de vista ético y jurídico. El objetivo es crear unos estándares europeos que sirvan para que estos campos se desarrollen dentro del respeto a los derechos fundamentales.</p>
<p>La aplicación práctica de la robótica y la inteligencia artificial es muy variada. Podemos destacar varios campos en los que los ciudadanos se pueden ver más afectados, tanto para bien como para mal.</p>
<h2>Médicos robóticos</h2>
<p>Es todo un reto introducir la inteligencia artificial en la medicina preventiva y en la reducción de riesgos, mediante técnicas de <em>big data</em> y robots que lleven a cabo tareas automatizadas.</p>
<p>La inteligencia artificial <a href="https://theconversation.com/de-las-migranas-al-cancer-inteligencia-artificial-para-diagnosticar-enfermedades-122971">ya se utiliza en medicina</a> para detectar arritmias mediante la interpretación de electrocardiogramas. También en la detección de cáncer de piel gracias al análisis de grandes bases de datos de fotografías de manchas cutáneas.</p>
<p>Estos avances en medicina no están exentos de problemas. Por ejemplo, la seguridad de la toma de decisiones por parte de las máquinas, la limitación del acceso a la sanidad pública y las responsabilidades derivadas del fallo en su uso.</p>
<h2>Trabajadores y acompañantes</h2>
<p>El impacto de la robótica en el mercado laboral puede tener grandes beneficios para los trabajadores al facilitar su labor y seguridad. También puede tener un impacto negativo si destruyen grandes cantidades de puestos de trabajo. </p>
<p>La conducción automática tendrá más interés <a href="https://www.forbes.com/sites/lanabandoim/2019/04/27/how-self-driving-tractors-and-ai-are-changing-agriculture/">en las producciones agrícolas</a> como sistemas automáticos de plantación y recogida de frutos que para la conducción en carretera. Sin duda, la negociación colectiva se tendrá que adaptar para conseguir un equilibrio entre los intereses de los trabajadores y la utilización de estos avances tecnológicos.</p>
<p>Los robots de compañía, tanto para personas mayores solas como para el cuidado de niños, ya se emplean en Japón. Estos pueden aportar soluciones a los problemas que encontraremos en sociedades que envejecen como la nuestra, pero que pueden afectar a la libertad y autonomía de las personas.</p>
<h2>¿Qué pasa con la seguridad?</h2>
<p>La administración pública tiene un gran margen para implementar estas tecnologías que mejoren la toma de decisiones, ya que es la gran poseedora de datos. </p>
<p>La lista de aplicaciones que pueden mejorar la vida de la sociedad no es corta. Optimizar el uso de fondos públicos, las políticas de igualdad, la sanidad, la educación y de la distribución de la energía son solo algunos ejemplos. También controlar el fraude fiscal e incrementar la seguridad.</p>
<p>Sin embargo, los riesgos también son importantes para los ciudadanos. Un excesivo control por parte del Estado, limitaciones de la libertad de movimientos y de expresión, la reutilización de información para otro tipo de políticas, falta de privacidad y una utilización sin límites por el sector privado son algunos de sus peligros.</p>
<p>El uso de robótica e inteligencia artificial para garantizar la seguridad y combatir el crimen es una necesidad, pero no está libre de grandes riesgos para las democracias. Esto es debido al control y discriminación que pueden sufrir determinados grupos de población.</p>
<h2>La importancia de una guía ética</h2>
<p>Combatir nuevas formas de crimen y las complejas redes de crimen organizado será más fácil con esta tecnología, pero sin la regulación adecuada puede convertirse en un control estatal de los ciudadanos que limite de forma drástica sus derechos fundamentales en un sistema democrático.</p>
<p>La utilización correcta de la tecnología se conseguirá mediante la creación de un sistema normativo desde la administración y de sistemas éticos de autoregulación para los entes privados. <a href="https://theconversation.com/como-gobernar-los-algoritmos-en-lugar-de-que-lo-hagan-ellos-118063">El primer paso al respecto lo ha dado la UE</a> con la guía ética para una Inteligencia Artificial fiable y honesta. </p>
<p>Los principios en los que se debe basar toda esta tecnología son: transparencia, responsabilidad, justicia, respeto a la privacidad, sin maldad, y que respete la autonomía y libertad de las personas. </p>
<p>Trasladar la protección de estos intereses al ordenamiento jurídico es nuestra labor para seguir disfrutando de nuestros derechos y garantías y conseguir un sistema de legitimación de estas tecnologías.</p>
<hr>
<p><em>Javier Valls Prieto es miembro del proyecto SIENNA financiado por el programa H2020 de la Comisión Europea.</em></p>
<hr><img src="https://counter.theconversation.com/content/125034/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Javier Valls Prieto recibe fondos de la Comisión Europea, programa H2020. </span></em></p>El desarrollo de estas nuevas tecnologías requiere, en paralelo, de la creación de guías éticas y normativas.Javier Valls Prieto, Prof. en Derecho Penal, Universidad de GranadaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1138592019-09-23T19:50:22Z2019-09-23T19:50:22Z¿Qué pueden enseñarnos caracoles y babosas sobre robótica?<figure><img src="https://images.theconversation.com/files/291801/original/file-20190910-190050-1q6qui9.jpg?ixlib=rb-1.1.0&rect=0%2C136%2C6507%2C3687&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/helix-aspersa-muller-maxima-snail-organic-1448086475?src=xS9ljRm3sWTsRl1HgP7MQw-1-40">Krolya25/shutterstock</a></span></figcaption></figure><p>Pocas personas relacionarían <em>a priori</em> la tecnología con los caracoles y las babosas. Sin embargo, si estas criaturas <a href="https://www.britannica.com/animal/Anchura">han sobrevivido al durísimo test de la selección natural</a> durante millones de años, deben de ser muy buenas en algo. </p>
<p>Hacen cosas fascinantes. Como <a href="https://dennylab.stanford.edu/">resumió brillantemente</a> el naturalista Mark Denny: “¿Cómo puede un animal con un solo pie caminar sobre pegamento?”.</p>
<h2>¿Cómo se mueven los caracoles y babosas?</h2>
<p>Los caracoles y babosas son gasterópodos, del griego <em>gaster</em> (estómago) y <em>podos</em> (pie). Literalmente, “pie en el estómago”. El nombre se debe a que parecen deslizarse sobre su vientre. </p>
<p>Aunque en realidad, el vientre, o más bien deberíamos decir el pie, es un músculo cuyas fibras pueden contraerse y relajarse de manera independiente. Esto permite al gasterópodo ejecutar <a href="https://jeb.biologists.org/content/91/1/195">un complejo conjunto de movimientos</a> que usa para propulsarse.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=579&fit=crop&dpr=1 600w, https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=579&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=579&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=727&fit=crop&dpr=1 754w, https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=727&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/291382/original/file-20190908-175682-8fy582.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=727&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Esquema simplificado de un caracol y la parte del músculo que genera la onda.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>El repertorio de movimientos y maneras de desplazarse que encontramos en estos animales es fascinantemente rico. Tanto, que resulta imposible describirlas todas en un solo artículo. Por esta razón nos centraremos en los caracoles y babosas terrestres, que llamaremos genéricamente caracoles.</p>
<p>Además del pie, el otro ingrediente esencial en el movimiento de los caracoles es la baba. Esta forma una película muy fina (alrededor de una décima de milímetro) entre el animal y el sustrato por el que se desplaza. Al tratarse de un líquido pegajoso, permite al animal desplazarse por superficies verticales e incluso boca abajo. ¡Es una de sus posiciones favoritas!</p>
<p>Las propiedades que tiene esta baba son muy distintas a las de los líquidos a los que estamos acostumbrados (agua, aceite, etc.). No solo es mucho más viscosa, sino que, además, la resistencia que ofrece a ser deformada depende de cuánta fuerza se haga sobre ella. Si se presiona levemente, se comportará como un sólido y apenas se deformará. Sin embargo, si la fuerza que se ejerce sobre ella excede un límite, de repente <a href="https://www.nature.com/articles/285160a0">comenzará a fluir como un líquido corriente</a>.</p>
<h2>Desplazamiento ondulatorio</h2>
<p>Como si se tratara de un muelle, el caracol genera ondas que discurren a lo largo de su músculo de la cola a la cabeza. Para ello contrae las fibras por delante de la onda y las relaja a su paso. Cada onda transporta un poco hacia delante la parte del cuerpo que atraviesa. De esta manera, el paso de una sucesión de ondas hace avanzar al animal lentamente hacia delante.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=233&fit=crop&dpr=1 600w, https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=233&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=233&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=293&fit=crop&dpr=1 754w, https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=293&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/291380/original/file-20190908-175678-k6xauj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=293&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Imagen del pie de una babosa caminando por un cristal, donde se pueden ver claramente las ondas (franjas claras).</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Si el caracol solo se desplazara por el suelo, <a href="https://www.ncbi.nlm.nih.gov/pubmed/21037072">estos movimientos serían suficientes para propulsarle</a>. Sin embargo, su afición a estar boca abajo y a trepar hace necesaria la baba, el pegamento con el que se adhiere a todo tipo de superficies.</p>
<p>Pero moverse sobre pegamento no es trivial. Aquí es donde cobran importancia las propiedades exóticas de la baba. Cada vez que pasa una onda, el cuerpo cizalla la película de baba, haciéndola fluir y por tanto ofreciendo menor resistencia al avance. Por el contrario, en las partes del pie donde no hay actividad muscular, la baba se comporta como un pegamento y esa parte del cuerpo queda anclada.</p>
<h2>Y todo esto, ¿por qué nos importa?</h2>
<p>El ser humano ha usado siempre la naturaleza como fuente de inspiración para el desarrollo de la tecnología. Esto se conoce como <a href="https://es.wikipedia.org/wiki/Biomimesis">biomimética</a>. Naturalmente, <a href="https://theconversation.com/seis-usos-de-los-robots-que-quiza-no-conocia-116783">la robótica</a> no ha sido una excepción. Así, podemos encontrar robots que imitan peces o mulas de carga. Y por supuesto, también animales blandos, sin esqueleto, como los caracoles o los pulpos.</p>
<p>La principal habilidad de los caracoles es obvia: trepan por toda clase de superficies. Una capacidad que podría ser útil para realizar tareas en lugares de difícil acceso. Pensemos, por ejemplo, en ambientes altamente contaminados o en el rescate de personas tras terremotos. </p>
<p>Un grupo de investigadores del MIT <a href="https://aip.scitation.org/doi/abs/10.1063/1.2102927">construyó un robot</a> que imitaba el movimiento de los caracoles. Más que obtener robots completamente funcionales, su objetivo era demostrar empíricamente que lo aprendido de la observación de los caracoles sirve para propulsar robots.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/Rw8wJGBTN5k?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Vídeo explicativo sobre el proyecto de caracol robótico del MIT.</span></figcaption>
</figure>
<p>Otra característica de los caracoles es que son poco agresivos con la superficie por la que se desplazan. Esto inspiró a un grupo de investigadores de la Universidad de Tohoku (Japón) para <a href="https://www.ncbi.nlm.nih.gov/pubmed/19760682">construir un endoscopio</a> que imitaba su movimiento.</p>
<p>Sin embargo, estos primeros robots aún estaban compuestos de partes mecánicas duras. Hoy en día, el desarrollo de técnicas de fabricación modernas como la impresión 3D o la litografía de materiales blandos ya hace posible construir <a href="https://www.nature.com/articles/s41578-018-0002-2">robots completamente blandos</a>, sin partes mecánicas.</p>
<p>Estos diseños están dando sus primeros pasos. El primer robot compuesto enteramente de materiales blandos, <a href="https://www.nationalgeographic.com.es/ciencia/actualidad/octobot-primer-robot-autonomo-blando_10628">el Octobot</a>, lo construyeron en 2016 investigadores de la Universidad de Harvard. En realidad se inspiraron en el pulpo, no en el caracol, aunque el diseño podría adaptarse fácilmente para replicar su movimiento.</p>
<p>Desde entonces, han aparecido multitud de robots blandos que realizan tareas cada vez más complejas. Imagine la gran sorpresa que se llevarían los primeros naturalistas que estudiaron a los gasterópodos si pudieran ver que somos capaces de fabricar criaturas semejantes. En este campo, como en tantos otros, el siglo XXI ha reducido de manera drástica la distancia entre la imaginación y la realidad.</p><img src="https://counter.theconversation.com/content/113859/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Javier Rodríguez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Las particularidades del movimiento de los caracoles ha servido de inspiración para el diseño de máquinas con materiales blandos y capaces de desplazarse en condiciones especiales.Javier Rodríguez, Investigador en el Grupo de Mecánica de Fluidos, Universidad Carlos IIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1200182019-07-24T21:38:39Z2019-07-24T21:38:39ZEste asistente robótico facilita la vida a personas dependientes y sus cuidadores<figure><img src="https://images.theconversation.com/files/283566/original/file-20190710-44472-6qzxm3.jpg?ixlib=rb-1.1.0&rect=7%2C251%2C4931%2C2976&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/isg-uah/37463959406/in/album-72157685872428622/">ISG-UAH/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>El sistema de teleasistencia LARES permite la detección inteligente de emergencias en el hogar. Combina robótica, sensores e inteligencia artificial para mejorar la autonomía de las personas dependientes.</p>
<p>LARES propone, mediante sensores distribuidos por el hogar, un robot y técnicas de <em>machine learning</em>, un modelo de teleasistencia pasivo en el que la persona dependiente no tiene que interactuar con el sistema. Es el propio sistema el que detecta las emergencias y contacta con los servicios de asistencia.</p>
<p>En general, los sistemas de teleasistencia tradicionales consisten en un aparato telefónico con altavoz conectado con un botón de alarma que el dependiente utiliza en forma de collar para poder contactar con los servicios de emergencia desde cualquier punto de su hogar.</p>
<p>El problema con esta solución es que las personas dependientes son reacias a utilizar el collar, bien por rechazo psicológico al percibirlo como un estigma que visualiza su dependencia, o bien por olvido, por la propia acción de algunas enfermedades como el alzhéimer. Es por ello que los sistemas de dependencia activos no son tan fiables como es requerido. </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/6cSWPd1M_pA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Vídeo explicativo de LARES.</span></figcaption>
</figure>
<h2>¿Como surge el proyecto?</h2>
<p>LARES, desarrollado por el <a href="http://isg.aut.uah.es/">Grupo de Sistemas Inteligentes (GSI)</a> de la Universidad de Alcalá (GSI-UAH), surge para poner al servicio de la sociedad la investigación en inteligencia artificial y robótica de nuestro equipo, desarrollada gracias a la financiación de la Agencia Espacial Europea, la Junta de Comunidades de Castilla-La Mancha y la Iniciativa de Empleo Juvenil del Fondo Social Europeo.</p>
<p>Garantizar la calidad de vida de las personas dependientes exige el trabajo de cuidadores, ya sean profesionales o familiares. El día a día de estas personas que lidian con la dependencia puede tener impactos negativos en su calidad de vida. En los peores casos, esta labor puede llegar a causar estrés crónico y provocar el trastorno conocido como síndrome del cuidador. </p>
<p>En el GSI hemos querido aportar soluciones tecnológicas a esta situación basándonos en la teleasistencia.</p>
<h2>¿Cómo funciona?</h2>
<p>LARES es un sistema de teleasistencia compuesto por una red de sensores conectados de manera inalámbrica y distribuidos por las habitaciones del hogar. Estos sensores monitorizan datos como la temperatura, humedad, luminosidad o presencia de personas en cada habitación y envían la información a un robot autónomo. </p>
<p>La persona dependiente puede, además, llevar un reloj que detecta caídas y avisar a los servicios de urgencias si es necesario.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=288&fit=crop&dpr=1 600w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=288&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=288&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=362&fit=crop&dpr=1 754w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=362&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/283706/original/file-20190711-173334-zlbpb1.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=362&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Esquema del funcionamiento de LARES.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>El robot integra algoritmos de <em>machine learning</em> capaces de aprender los patrones de comportamiento de la persona dependiente usando la información recopilada de los sensores (incluido el reloj). En caso de detectar anomalías, el robot puede desplazarse de forma autónoma hasta la habitación donde se haya detectado la emergencia gracias a técnicas de inteligencia artificial. </p>
<p>Los servicios de asistencia pueden controlar al robot y establecer una conexión de vídeo y audio bidireccional a través de internet, facilitando la evaluación de la situación en tiempo real.</p>
<p>Gracias a este funcionamiento, el sistema LARES puede responder de forma más efectiva y eficiente a emergencias en el hogar de personas dependientes sin que estas tengan que realizar acción alguna. </p>
<p>Además, observar en tiempo real la situación en la vivienda permite que los servicios de asistencia movilicen a los profesionales de emergencia en caso necesario. Se reduce así el tiempo de respuesta, el estrés de los familiares y cuidadores y, como objetivo principal, se mejora la independencia de las personas dependientes en su hogar.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=800&fit=crop&dpr=1 600w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=800&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=800&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1005&fit=crop&dpr=1 754w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1005&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/283568/original/file-20190710-44497-z20ebk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1005&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Sistema de teleasistencia LARES.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/isg-uah/37463959406/in/album-72157685872428622/">ISG-UAH/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>Estado de LARES</h2>
<p>El prototipo inicial de LARES <a href="https://www.sciencedirect.com/science/article/pii/S1389041718302870">se ha desplegado</a> en dos casas para brindar servicios de teleasistencia a dos personas mayores dependientes con diferentes perfiles y necesidades.</p>
<p>• El primer caso de estudio es un hombre de 75 años con necesidades de supervisión que vive solo. Le gusta la tecnología y usualmente utiliza ordenadores. Sufre una enfermedad que afecta a su sistema motor, haciéndolo altamente vulnerable a las caídas. </p>
<p>• El segundo caso de estudio es una mujer de 86 años que vive con un cuidador profesional. No le gusta la tecnología y nunca ha usado ordenadores o teléfonos móviles. Sufre la enfermedad de Alzhéimer en la fase VI (de las VII fases) y requiere supervisión y ayuda continuas. </p>
<p>Gracias a la recogida y el procesamiento de datos, hemos detectado cuadros de insomnio en ambos ancianos y, en el caso del varón, se registró un problema con la calefacción. Los resultados obtenidos y las apreciaciones de estos usuarios servirán para perfeccionar el sistema de teleasistencia.</p><img src="https://counter.theconversation.com/content/120018/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Maria Dolores Rodríguez Moreno recibe fondos de la Junta de Comunidades de Castilla-La Mancha, la Agencia Espacial Europea y del Fondo Social Europeo a través del Programa Operativo de Empleo Juvenil y la Iniciativa de Empleo Juvenil.</span></em></p><p class="fine-print"><em><span>Pablo Muñoz Martínez ha recibido fondos de la Agencia Espacial Europea a través del programa NPI. </span></em></p>El sistema de teleasistencia LARES combina el uso de sensores, técnicas de inteligencia artificial y un robot autónomo para monitorizar y detectar emergencias en el hogar de personas dependientes.Maria Dolores Rodríguez Moreno, Catedrático de Universidad. Área: Inteligencia Artificial, Universidad de AlcaláPablo Muñoz Martínez, Investigador postdoctoral en el Grupo de Sistemas Inteligentes, Universidad de AlcaláLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1167832019-05-13T20:07:28Z2019-05-13T20:07:28ZSeis usos de los robots que quizá no conocía<figure><img src="https://images.theconversation.com/files/274105/original/file-20190513-183100-r5qu.jpg?ixlib=rb-1.1.0&rect=8%2C0%2C5599%2C3724&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/robot-delivery-service-automation-logistic-friendly-1069814951"> Besjunior / Shutterstock</a></span></figcaption></figure><p>¿Cuántas veces diría que un robot tuvo algún tipo de influencia en su vida durante los últimos siete días? A no ser que tenga un <a href="https://au.pcmag.com/vacuums/41460/the-best-robot-vacuums">robot aspirador</a>, seguramente crea que no influyó en su día a día; nada más lejos de la realidad. Vamos a hacer un repaso de cómo los robots están siendo utilizados ahora mismo. Es probable que ni usted supiera de estos usos.</p>
<h2>¿Qué es un robot?</h2>
<p>Antes de comenzar, tenemos que precisar qué es exactamente un robot. Si bien no existe una <a href="https://www.wired.com/story/what-is-a-robot/">definición oficial</a> sobre las características que lo constituyen, numerosos expertos en robótica, como yo, lo describen como una máquina que se mueve o tiene partes móviles y que toma decisiones sencillas mientras interactúa con el mundo.</p>
<p>Por lo tanto, el aspirador que programa para hacer su trabajo cuando usted está fuera es un robot, ya que percibe el mundo a su alrededor y toma decisiones mientras absorbe y barre la suciedad. </p>
<p>Por el contrario, la lavadora no es un robot. Usted elige el programa para indicarle cómo quiere lavar la ropa y el electrodoméstico se pone a ello sin interactuar con el exterior. Como vemos, el concepto es ambiguo y no hay una definición que agrade a todos. Pero dejémoslo aquí y volvamos a la semana pasada.</p>
<h2>Robots que separan la comida</h2>
<p>Cuando coma un plato de <a href="https://www.statista.com/topics/1443/rice/">arroz</a>, recuerde que cada grano que consuma fue seleccionado por una máquina robotizada con un sistema de visión ultrarrápido. Y es que las herramientas que separan alimentos como el arroz son milagros de la automatización cuya existencia ignoran la mayoría de personas. Muchas de ellas, incluso, pensarán que el arroz crece de manera uniforme en forma y color tal y como es presentado en los paquetes que adquieren en el supermercado, pero no es así.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/DnaFWh22HuI?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Separación del arroz por color.</span></figcaption>
</figure>
<p>Cada grano de arroz pasa por una máquina robotizada que utiliza cámaras de alta velocidad, luces y <a href="https://theconversation.com/how-do-robots-see-the-world-51205">un ordenador que analiza</a> la imagen de cada grano, en base a la cual se toma una decisión: en función del grosor del grano, se encienden y apagan potentes corrientes de aire para dirigirlo al recipiente correcto. Este proceso tiene lugar cientos de veces por segundo.</p>
<p>Pero el arroz no es la única comida que los robots pueden separar. De hecho, el mercado de las máquinas que clasifican los alimentos está <a href="https://www.prnewswire.com/news-releases/the-global-food-sorting-machines-market-is-forecasted-to-grow-at-a-cagr-of-724-during-the-period-2017-2021-300567538.html">creciendo a pasos agigantados</a>: ya son capaces de separar trigo, legumbres y semillas.</p>
<h2>Robots para la práctica sanitaria</h2>
<p>¿Ha visitado la semana pasada a un profesional de la salud? Seguro que enseguida se habrá dado cuenta de si se trataba de un humano o de un robot. Lo más probable es que fuera lo primero. Pero, ¿sabía que muchos enfermeros, doctores y técnicos de emergencias sanitarias <a href="https://www.ems1.com/ems-products/education/patient-simulation/articles/393079048-Robot-helps-health-workers-train-for-emergencies/">practican con pacientes robots</a>?</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/zUAYaSVAHv8?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Pacientes robots para la práctica sanitaria.</span></figcaption>
</figure>
<p>Estos peculiares pacientes pueden simular varias enfermedades y facilitan a los estudiantes la posibilidad de ofrecer diagnósticos y tratamientos antes de hacerlo con personas de carne y hueso. Estos robots son a la medicina lo que los simuladores de vuelo a los pilotos de aviones en prácticas.</p>
<p>Algunos de los robots de uso sanitario tienen tamaño real y el aspecto de una persona real, mientras que otros sirven a una especialidad concreta y pueden representar <a href="https://www.telegraph.co.uk/science/2016/07/04/robotic-rectum-developed-to-help-doctors-get-to-bottom-of-prosta/">solo una parte</a> del cuerpo humano.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/58C1CLbP8hA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Simulación robotizada de un recto.</span></figcaption>
</figure>
<h2>Robots para el entrenamiento de la policía</h2>
<p>¿Ha sido tomado como rehén en un robo a mano armada alguna vez? Esperemos que no. Pero si la respuesta de nuevo es afirmativa y la policía acudió en su auxilio, cabe la posibilidad de que los francotiradores que apuntaron con un láser rojo a los delincuentes fueran entrenados utilizando robots.</p>
<p>La compañía Marathon Targets, radicada en Sidney, comercializa toda una gama de robots de gran movilidad que aguantan los disparos de policías y militares en prácticas. Estas máquinas están blindadas por razones obvias y pueden ser utilizadas para sustituir personas (objetivos) durante un entrenamiento con fuego real.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/DwXv3D8753w?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">No pasa nada por disparar a estos objetivos.</span></figcaption>
</figure>
<h2>Robots para la extracción de veneno</h2>
<p>¿Alguna vez se ha medicado? Si la medicina que tomó tenía por objeto evitar el contagio de la malaria o suprimir su sistema inmune, puede que las farmacéuticas utilizasen veneno de escorpión como ingrediente.</p>
<p>La extracción del veneno de un alacrán es, a todas luces, una tarea peligrosa para una persona. Sin embargo, para un robot es <a href="https://www.sciencedaily.com/releases/2017/07/170703083304.htm">el trabajo perfecto</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/qCVonhK1K5E?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Un robot que extrae el veneno de los escorpiones.</span></figcaption>
</figure>
<h2>Robots que exploran las alcantarillas</h2>
<p>Alguna vez habrá utilizado el baño, ¿no? Vaya, eso espero. La verdad es que no solemos pensar con asiduidad en el sistema de alcantarillado, pero cuando no realiza su cometido correctamente nos enteramos enseguida.</p>
<p>Los <em>fatbergs</em> (masas de grasa congelada) y todo tipo de productos de higiene que dejamos correr por el retrete y provocan atascos en las tuberías se han convertido en un problema de primer nivel en <a href="https://www.abc.net.au/news/2019-01-10/fatberg-how-to-remove-and-stop-them-building-up/10701656">numerosas ciudades</a> de todo el mundo, por lo que la inspección y el mantenimiento de las alcantarillas son más importantes que nunca. Afortunadamente, los trabajadores cuentan con la colaboración de robots que les facilitan sus engorrosos quehaceres.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/2qrOUYe3veI?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Los robots pueden ser utilizados para ayudar a inspeccionar las alcantarillas.</span></figcaption>
</figure>
<h2>Los robots y las compras</h2>
<p>Seguro que más de una vez ha ido de compras o ha comprado por internet. Pero quizá no sabía que muchos de los productos que consume son trasladados por robots desde su lugar de elaboración hasta el establecimiento en el que los adquiere.</p>
<p>Algunos puertos de contenedores han sido <a href="https://www.portbris.com.au/Operations-and-Trade/Port-Facilities/Berths-and-terminals/">parcialmente automatizados</a>. En las terminales, los operarios (humanos) descargan los enormes contenedores de los barcos por medio de grúas.</p>
<p>Sin embargo, a partir de ese momento, los contenedores son manejados por inmensas grúas robóticas sobre ruedas que reciben el nombre de carretillas pórtico. Los contenedores son <a href="https://www.youtube.com/watch?v=_oMhrVxBT9E">trasladados por todo el puerto</a>, apilados, reapilados y cargados automáticamente en camiones que los transportarán por carretera.</p>
<p>Los robots móviles también operan numerosos almacenes. El mejor ejemplo conocido de <a href="https://www.youtube.com/watch?v=cLVCGEmkJs0">automatización de depósitos</a> lo encontramos en Amazon. El gigantesco distribuidor diseñó muchos de sus almacenes para que las máquinas transportasen estanterías completas de manera autónoma.</p>
<p>Es tal la importancia de los robots en el éxito de Amazon que en 2012 la compañía estadounidense <a href="https://dealbook.nytimes.com/2012/03/19/amazon-com-buys-kiva-systems-for-775-million/">se hizo con la empresa de robótica</a> que los fabricaba por 775 millones de dólares.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/HYjc9h8oSsY?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Robots trabajando en un almacén.</span></figcaption>
</figure>
<h2>La revolución de los robots ya está aquí</h2>
<p>Estas son seis maneras en las que un robot puede haber tenido algún tipo de influencia en su vida durante la semana pasada. Por supuesto, hay muchísimas más formas. Esto no es más que un resumen.</p>
<p>El caso es que la denominada revolución de los robots, de la que los medios dicen que está por venir, es ya un hecho. Pero la gente no se ha dado cuenta.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/sZ_-yb-TN9M?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Y aún hay más…</span></figcaption>
</figure><img src="https://counter.theconversation.com/content/116783/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jonathan Roberts es un Investigador en Jefe del Centro Australiano para la Visión Robótica. Recibe fondos del Consejo Australiano de Investigación y del Centro de Investigación Cooperativa de Fabricación Innovadora.</span></em></p>La revolución de los robots ya está ocurriendo, pero ¿cuánto sabemos sobre el impacto de las máquinas programables en nuestra vida diaria?Jonathan Roberts, Professor in Robotics, Queensland University of TechnologyLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1092662019-01-02T21:07:53Z2019-01-02T21:07:53ZEn busca de una educación auténtica y divertida<figure><img src="https://images.theconversation.com/files/252024/original/file-20181227-47292-2tcbsk.jpg?ixlib=rb-1.1.0&rect=15%2C0%2C5180%2C3456&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">"Aprender haciendo" es uno de los lemas de los expertos en educación de las últimas décadas.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/joncallas/5749454917/">joncallas / Flickr</a></span></figcaption></figure><p>En una charla que dio <a href="http://guy-brousseau.com/">Guy Brousseau</a> en la Universidad Pública de Navarra hace bastantes años decía que uno de los retos más importantes de la enseñanza obligatoria era tener que enseñar a personas que quizás no quieran aprender y que, además, están obligadas a ello. </p>
<p>El fondo de la cuestión de esta reflexión condiciona en gran medida los procesos de enseñanza y aprendizaje, tanto para estudiantes como para docentes en primera instancia, pero también para la administración, las familias y la propia sociedad. ¿Nos podemos divertir, enseñando y aprendiendo, docentes y estudiantes en nuestro trabajo diario? </p>
<h2>Programar en los años 80</h2>
<p>Ya en 1690 <a href="https://es.wikipedia.org/wiki/Ensayo_sobre_el_entendimiento_humano">John Locke</a> decía que las ideas complejas se forman en nuestra mente combinando ideas simples. Podemos tener un conjunto de ideas (simples o complejas) y ver cómo se relacionan y, cuando somos capaces de separar este conjunto del resto de ideas, conseguimos una idea general, también llamado abstracción.</p>
<p><a href="https://web.mit.edu/alexmv/6.037/sicp.pdf">Abelsson</a> hablaba de “primitivas”, como las entidades más simples de un lenguaje, de “complejificación”, siendo los elementos complejos construidos a partir de otros más simples, y de abstracción, mediante la cual un objeto complejo puede tener nombre y se puede manipular como una unidad. Esta es la esencia de la programación: el programa como un conjunto de instrucciones simples, o primitivas, que crean algo más complejo y, finalmente, la aplicación de la abstracción mediante variables o procedimientos.</p>
<p><a href="http://el.media.mit.edu/logo-foundation/">El lenguaje de programación Logo</a> surgió en 1968, de la mano de cuatro investigadores del MIT (Danny Bobrow, Wally Feurzeig, Seymour Papert y Cynthia Solomon) que estaban trabajando en Inteligencia Artificial. Nació con la idea de que los alumnos pudieran utilizarlo para construir su propio conocimiento. </p>
<p>Hasta los años 90, se utilizó Logo en el mundo de la educación, tanto en primaria como en secundaria. El resultado que cada programa daba era un dibujo y existía la posibilidad tener un dispositivo adicional, una “tortuga”, que podía pintar en papel el programa resultante. </p>
<p>La gran novedad de este entorno de programación era que, de una manera sencilla, ofrecía “primitivas”, diferentes formas de complejificar los programas a partir de estas “primitivas” y, finalmente, la posibilidad de abstracción mediante variables y, sobre, todo procedimientos. Los maestros se lanzaron a utilizarlo en sus procesos de enseñanza y aprendizaje.</p>
<p>Poco a poco, fue desapareciendo su uso con la evolución multimedia. Aparecieron otros lenguajes y entornos como Hypercard o Lingo/Director, para finalmente llegar (hoy día) a <a href="https://scratch.mit.edu/">Scratch</a> u otros dialectos de Scratch como <a href="https://snap.berkeley.edu/">Snap</a>, que se utilizan en escuelas, clubs o incluso en casa, con una amplia comunidad de usuarios/as por todo el mundo.</p>
<h2>Programar y, además, manipular</h2>
<p>A finales de los 80, <a href="http://www.papert.org/">Seymour Papert</a> introduce el construccionismo. En una conferencia para profesores japoneses en 1980, declara: “Enseñar es importante, pero aprender lo es mucho más. Y el construccionismo significa ‘dar a los niños cosas que hacer para que puedan aprender haciendo mucho mejor de lo que lo hacían antes’”. </p>
<p>El construccionismo para Papert es dotar a los estudiantes de medios para manipular sus propios artefactos digitales y aprender utilizándolos. Pueden ser programas o pueden ser objetos. Es la evolución lógica de Logo. </p>
<p>A finales de los 80, Papert y Resnick, junto a otros investigadores del MIT, <a href="https://web.media.mit.edu/%7Emres/">sacaron adelante el proyecto Lego Mindstorms</a>, lo que supuso el inicio de la Robótica Educativa, con la aparición a finales de los 90 del <a href="https://www.lego.com/es-es/mindstorms/history">primer robot Lego Mindstorms comercial</a> (RCX) “apto para la escuela”.</p>
<p>Trabajar con robótica educativa refuerza el pensamiento formal hipotético deductivo de los estudiantes. Tienen que utilizar lenguajes de programación para resolver problemas explorando con sus robots escenarios modelizados que representan el espacio donde deben discurrir las soluciones.</p>
<p>Una profesora de primaria que trabaja con robótica educativa declaró que “es una herramienta motivadora que consigue una mayor atención por parte del alumnado y que ayuda a adquirir o afianzar diferentes contenidos, tanto en matemáticas como en otras áreas que impartimos en el aula: interpretación de textos instructivos, utilización de recursos gráficos en la comunicación escrita, planificación y realización de proyectos, puesta en práctica de estrategias para aprender a aprender…”.</p>
<h2>Programar, manipular y fabricar</h2>
<p><a href="https://www.arduino.cc/">Arduino</a> surge en 2005 y es una plataforma electrónica programable de hardware libre que permite diseñar artefactos digitales con sensores y actuadores. Es el paso que necesitaba el <a href="https://es.wikipedia.org/wiki/Cultura_Maker">movimiento <em>maker</em></a> para poder crear, inventar, construir, objetos programables a mano, de una manera creativa y divertida, y a precios razonables. </p>
<p>La impresión 3D ha favorecido esta cultura <em>maker</em>, <a href="https://www.ted.com/talks/dale_dougherty_we_are_makers?language=es">término acuñado por Dale Dougherty</a>, y la web está llena de proyectos que se comparten libremente y que cualquiera puede replicar, ampliar o modificar para volver a compartir. </p>
<p>Esta tecnología permite la fabricación de las piezas necesarias para los “inventos” a un precio muy razonable. Y el diseño de una pieza para impresión 3D conlleva una capacidad creativa y de abstracción importante, ya que se manejan otra vez lenguajes formales y es necesario ser capaz de relacionar el uso de esos lenguajes con el producto que se quiere en el espacio 3D.</p>
<p>Estos <em>makers</em> necesitan lugares en los que cualquier creador pueda encontrar los recursos necesarios para sus diseños y realizaciones y también conocer a otros <em>makers</em> para compartir ideas y proyectos. Los <a href="http://fab.cba.mit.edu/"><em>fab labs</em></a> son un ejemplo de espacios locales que favorecen espacios y herramientas de fabricación digital para <em>makers</em>. <a href="http://www.culturaydeporte.gob.es/cultura-mecd/areas-cultura/bibliotecas/novedades/jornada-makerspaces.html">Incluso las nuevas bibliotecas están incorporándolos en sus instalaciones</a>.</p>
<h2>Y en la escuela…</h2>
<p>Si desde la escuela, con la colaboración de las familias, la Administración y la sociedad, se unen los tres aciertos de cada uno de estos “hitos” (constructivismo o la capacidad de abstracción que surgió con LOGO, construccionismo o la posibilidad de manipular nuestros propios artefactos que surgió con LEGO, y la posibilidad de hacer cualquier cosa nosotros mismos o la esencia del movimiento MAKER), el resultado podría ser el camino para conseguir una educación acorde con estos movimientos.</p>
<p>El objetivo sería generar aprendizajes auténticos y divertidos, con una participación activa, en entornos reales y en directo. Aprendizajes interdisciplinares y aptos para su uso tanto en la escuela como en el ocio de los jóvenes, con resultados gratificantes, utilizando tecnologías abiertas de última generación y con costes que no supongan una barrera en buena parte de la población.</p>
<p><a href="https://www.marca.com/futbol/barcelona/2016/03/24/5691291246163f46068b45ef.html">Johan Cruyff decía</a> : “Demostramos al mundo que puedes divertirte mucho como futbolista, que puedes reír y pasártelo en grande. Yo represento una época que dejó claro que el fútbol bonito es divertido y que, además, con él se conquistan triunfos”. Lo mismo podemos hacer en la escuela.</p><img src="https://counter.theconversation.com/content/109266/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Alfredo Pina Calafi no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Los avances en la educación con herramientas tecnológicas de las últimas décadas nos dan pistas de cómo educar y aprender de forma entretenida.Alfredo Pina Calafi, Proesor titular de Universidad, area de Lenguajes y Sistemas Informaticos, Universidad Pública de NavarraLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1069082018-11-19T21:49:30Z2018-11-19T21:49:30ZLos retos del empleo en la economía 4.0<figure><img src="https://images.theconversation.com/files/245524/original/file-20181114-194500-ag47w0.jpg?ixlib=rb-1.1.0&rect=44%2C0%2C5946%2C3376&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La tecnología ha puesto patas arribas el modelo productivo actual y el concepto de empleo tal y como conocemos. </span> <span class="attribution"><span class="source">Pexels</span></span></figcaption></figure><p>Los avances tecnológicos han supuesto la llamada revolución 4.0, con dos efectos contrapuestos en la economía: por un lado, la mejora de la <a href="https://www.mckinsey.com/%7E/media/mckinsey/featured%20insights/Digital%20Disruption/Harnessing%20automation%20for%20a%20future%20that%20works/MGI-A-future-that-works-Executive-summary.ashx">productividad</a> y la competitividad empresarial; y por otro, la alteración sustancial del mundo laboral.</p>
<p>La inteligencia artificial y la robotización masiva de puestos de trabajo están transformando el mercado laboral, tanto en términos de cualificación como de cuantificación de los empleos. </p>
<p>Los avances de la robótica permitirán que hasta el 40% de los actuales puestos de trabajo en la industria, principalmente los que conllevan un alto porcentaje de tareas rutinarias, <a href="https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf">sean reemplazados por robots más productivos que los humanos</a> en un proceso de automatización gradual. Los trabajos rutinarios pueden ser de baja cualificación: manuales (operarios de fábricas) o intelectuales (televenta); pero también pueden ser de alta cualificación: manuales (fisioterapeutas) o intelectuales (técnicos de radioterapia).</p>
<p>No solamente en la industria, también en el sector servicios muchos empleos serán sustituidos por máquinas. El hotel japonés Henn-na ha abierto su <a href="https://www.theguardian.com/travel/2015/aug/14/japan-henn-na-hotel-staffed-by-robots">primer hotel atendido por robots</a> y el hospital Medical Center at Mission Bay de la Universidad de California, San Francisco, tiene ya entre su personal <a href="https://www.cnet.com/news/robots-give-a-helping-hand-in-san-franciscos-newest-hospital/">25 robots Aethon como asistentes de quirófano y enfermería</a>.</p>
<h2>Ordenadores, datos y aprendizaje</h2>
<p>Tres factores son decisivos: ordenadores mucho más potentes; la capacidad de análisis inteligente en tiempo real de millones de datos y la irrupción del llamado “aprendizaje profundo”. Este “aprendizaje profundo”, basado en redes neuronales artificiales e inteligencia artificial, permite a las máquinas mejorar sus funcionalidades por sí mismas a partir de la experiencia que van adquiriendo, mediante complejos algoritmos.</p>
<p>Según datos de la <a href="https://ifr.org/ifr-press-releases/news/world-robotics-report-2016">Federación Internacional de Robótica</a>, en 2016 en la industria manufacturera mundial había instalados 74 robots por cada 10.000 empleados, mientras que en España había 160, un 54% más. </p>
<hr>
<p><iframe id="aoEQc" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/aoEQc/4/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<hr>
<p>Pero la tecnología también está propiciando la aparición de empleo altamente cualificado en sectores de alto valor añadido. Por ello la relación entre la tecnología y el empleo ha de verse como una oportunidad. La visión neoschumpeteriana –optimista– de la tecnología como generadora de nuevos puestos de trabajo. Cuando una revolución tecnológica afecta al conjunto de los puestos de trabajo en un determinado sector económico, aparece de forma casi inmediata un nuevo sector que absorbe el excedente de trabajadores del otro.</p>
<p>¿Es posible que las nuevas tecnologías vayan a demandar tantos empleos como para contrarrestar los puestos de trabajo que se perderán con las máquinas inteligentes? Las anteriores revoluciones aportaron a la civilización fuerza o destrezas físicas, mientras que ahora las capacidades van mucho más allá porque son cognitivas.</p>
<h2>Cambio de modelo económico</h2>
<p>El sistema capitalista sigue teniendo la capacidad para crear empleo y generar riqueza. Pero se ha de producir un cambio de modelo económico, porque el modelo de crecimiento condiciona el tipo de empleo. Para que se genere empleo de calidad y que sea sostenible en el tiempo es precisa una estrategia integral para implementar ese nuevo modelo basado en la innovación, la tecnología y la formación.</p>
<p>Se deben ajustar las políticas en materia de educación, competencias profesionales y formación al nuevo modelo de crecimiento. Los futuros aumentos de productividad y las oportunidades de reinserción laboral dependerán de que los trabajadores posean las competencias profesionales y la formación adecuadas para responder a las necesidades de la nueva economía. </p>
<p>Las iniciativas de educación, formación y adquisición de competencias se han de ajustar para que la transición profesional sea efectiva y justa. Esto pasa por lograr un sistema educativo de calidad y con capacidad de respuesta, mejorar el acceso a las profesiones altamente cualificadas y poner el acento en las iniciativas de formación dentro de los programas activos de mercado de trabajo.</p>
<p>En Europa, en la última década, el empleo <em>high tech</em> (trabajadores de los sectores de alta tecnología pero también los trabajadores con titulaciones en ciencias, tecnologías, ingenierías y matemáticas) en los sectores menos intensivos en tecnologías ha crecido el doble que el empleo total.</p>
<p>Además, por cada empleo <em>high tech</em> creado en Europa se han creado cinco empleos <em>low tech</em>, por la existencia de un multiplicador de los puestos de trabajo <em>high tech</em> en el ámbito local. De ahí la importancia de aumentar el gasto en Investigación y desarrollo (I+D) al menos al 3% del PIB, objetivo de <a href="https://ec.europa.eu/info/business-economy-euro/economic-and-fiscal-policy-coordination/eu-economic-governance-monitoring-prevention-correction/european-semester/framework/europe-2020-strategy_es">la agenda de la Comisión Europea para 2020</a>, como una de las vías para la convergencia entre regiones de la Unión Europea.</p>
<p>El gasto medio de la UE en I+D fue del 2,03% del PIB en 2016, según <a href="https://www.europapress.es/economia/macroeconomia-00338/noticia-espana-gasta-id-119-pib-lejos-media-ue-203-20171201123218.html">Eurostat</a>. De acuerdo a la evidencia disponible en la primera década de este siglo, Goos, Konings y Vandeweyer argumentan que con estas cifras de inversión en investigación, desarrollo e innovación (I+D+i) se tardará al menos 60 años para que las regiones más retrasadas puedan reducir a la mitad su brecha en empleo <em>high tech</em> en relación con la regiones hoy más avanzadas. </p>
<h2>El I+D en España</h2>
<p>En España, el gasto en I+D ascendió en 2016 al 1,19% del PIB, siendo el 54% de la inversión del sector privado. Además, esa reducida inversión está muy polarizada en las regiones con más empleo <em>high tech</em>, como Madrid y Cataluña. Sin embargo, la práctica totalidad de las regiones españolas están entre las más retrasadas en empleo de este tipo.</p>
<p>El auge de la economía digital está además cuestionando el concepto de empleo. La inteligencia artificial y la robótica no solo redefinirán los tipos de empleo sino la forma de trabajar, con entornos laborales más interactivos, colaborativos y simplificados. La automatización está redefiniendo el conjunto de habilidades requeridas, entre las que destacan las <em>soft skills</em> (habilidades emocionales o interpersonales) y las competencias transversales. </p>
<p>Existe un proceso paralelo y estrechamente unido a la aplicación de las nuevas tecnologías: la reingeniería empresarial, definida como aquellos procesos organizativos y de gestión que tratan de adaptar la tecnología de la información a las empresas.</p>
<p>Se trata de un cambio en la cultura organizativa, para utilizar las nuevas tecnologías y así mejorar y simplificar la forma en la que los empleados interactúan con compañeros de trabajo y con la información. Cada vez están más presentes las innovaciones como dispositivos táctiles interactivos, tecnologías de reconocimiento de voz, gafas de realidad aumentada. En los próximos 20 años estará más extendido el uso de asistentes virtuales para acudir a reuniones, los drones para proyectar presentaciones o visualizaciones, o incluso la tecnología <em>bluetooth</em> para transmitir datos de cerebro a cerebro y nodos de transmisión.</p>
<p>La tecnología no sólo ha cambiado la composición del empleo por ocupaciones y cualificaciones. También la intermediación laboral y cómo se relacionan los trabajadores y las empresas, con nuevas figuras de empleo como los autónomos dependientes, los <em>freelancers</em>, o la <em>uberización</em> del empleo.</p>
<p>Las plataformas digitales están contribuyendo al auge de la <em><a href="https://www.efe.com/efe/espana/economia/deben-los-robots-contribuir-a-pagar-el-estado-del-bienestar/10003-3512950">gig economy</a></em> (que se podría traducir como economía a demanda), en la que los trabajadores han evolucionado hacia empleos flexibles basados en proyectos y las empresas tienen cada vez más acceso a un mercado mundial.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=354&fit=crop&dpr=1 600w, https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=354&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=354&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=445&fit=crop&dpr=1 754w, https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=445&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/245622/original/file-20181114-194506-191w4co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=445&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La tecnología está flexibilizando los modelos laborales. Los repartidores han aumentado al calor de la economia colaborativa.</span>
<span class="attribution"><a class="source" href="https://pixabay.com/en/courier-night-panning-warsaw-1214227/">Pixabay</a></span>
</figcaption>
</figure>
<p>En el caso de los trabajadores del conocimiento, se profundizará un patrón de trabajo híbrido, muchos más trabajarán desde casa y las oficinas se convertirán en lugares para reuniones y <em>networking</em>. Esto nos llevará a la mercantilización del trabajo, una individualización total de las relaciones laborales: las cuestiones se discuten directamente con el jefe y/o equipo; la representación legal de los trabajadores, cuando existe, tiene un papel secundario y la presencia del convenio colectivo es escasa. Esto puede derivar en un deterioro de las condiciones de trabajo.</p>
<h2>Derechos laborales</h2>
<p>Se precisa un cambio completo en la regulación que permita promover la creación de nuevos tipos de empleo garantizando los derechos laborales y facilitando la transición a ese nuevo modelo de crecimiento, que debe centrarse en aumentar la flexibilidad interna y la productividad. </p>
<p>A su vez debe resolver nuevos problemas como los de protección social porque la relación de los trabajadores con la Seguridad Social está cambiando rápidamente, afectando a sus ingresos y a las pensiones esperadas. O los relacionados con el tiempo de trabajo y el <a href="https://www.efefuturo.com/noticia/100401/">derecho a la desconexión</a>. En teoría, el uso de las nuevas tecnologías y la posibilidad de realizar la prestación de trabajo en cualquier tiempo y lugar puede facilitar la conciliación de la vida profesional y personal. Por ello, junto a la regulación del tiempo de trabajo, debe introducirse también la variable de la conciliación.</p>
<p>Se tiende a un nuevo modelo de empresa. Los avances tecnológicos impulsarán un aumento de los micro-emprendedores y esto permitirá que empresas pequeñas operen como las grandes. Los empleados a nivel individual tendrán un papel cada vez más importante en la toma de decisiones en comparación con la cúpula directiva. Las mayores capacidades analíticas y otras tecnologías permitirán a las organizaciones delegar mucha más capacidad de toma de decisiones en los directores y empleados periféricos. Tenderán a desaparecer los directivos de nivel medio del pasado. Esto formará parte de un cambio generalizado hacia unas estructuras corporativas más planas y meritocráticas.</p>
<p>Las empresas incapaces de mantener el ritmo de los cambios tecnológicos podrían desaparecer. La tecnología permite progresar de manera significativa en términos de innovación, eficiencia, relación con el cliente y muchas otras áreas de competitividad. Pero requiere una permanente adaptación de las organizaciones al ritmo de los cambios tecnológicos, para mantener su ventaja competitiva. Pocos sectores se mantendrán sin cambios como consecuencia de la disrupción tecnológica.</p>
<hr>
<p><em>La versión original de este artículo <a href="https://telos.fundaciontelefonica.com/telos-109-analisis-monica-melle-los-retos-del-empleo-en-la-economia-4-0/">fue publicada</a> en la <a href="https://telos.fundaciontelefonica.com/">Revista Telos</a>, de <a href="https://www.fundaciontelefonica.com/">Fundación Telefónica</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/106908/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Mónica Melle no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>La inteligencia artificial y la robotización están mejorando la productividad y transformando el mercado laboral. Empleos más rutinarios son reemplazados por máquinas. A la vez, los avances tecnológicos propician la aparición de empleo altamente cualificado de alto valor añadido.Mónica Melle, Profesora Titular de Economía Financiera, Universidad Complutense de MadridLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1060432018-11-05T22:44:22Z2018-11-05T22:44:22ZEl futuro del cerebro<figure><img src="https://images.theconversation.com/files/243243/original/file-20181031-76393-ceannj.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C2695%2C1515&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/human-brain-being-formed-by-particles-591931739">Shutterstock / Adrian Grosu</a></span></figcaption></figure><p>La neurociencia busca comprender el funcionamiento y la estructura del sistema nervioso. Es una tarea titánica que ha avanzado de una forma espectacular en las últimas décadas. Los avances recientes nos permiten especular sobre cómo serán las posibilidades en el futuro inmediato, incluyendo comprensión y reparación antes impensables y una mayor integración con el mundo cibernético.</p>
<p>El cerebro humano, definido por Woody Allen como su “segundo órgano favorito”, es la estructura más compleja del universo. Su alto número de componentes, la variedad de conexiones entre ellos, su complejidad química, los sofisticados mecanismos de regulación, análisis y respuesta que presenta y la importancia de sus funciones hacen que el estudio del sistema nervioso sea una de las fronteras del conocimiento más importantes para la humanidad.</p>
<p>La neurociencia se dedica precisamente al estudio multidisciplinar del sistema nervioso. Ese enfoque, integrar las herramientas, conocimientos y recursos humanos y materiales de diferentes ámbitos: biología, medicina, informática, psicología, bioquímica, farmacología, biofísica, etcétera, para entender cómo funciona el cerebro, cómo pasamos de transmisores químicos y señales eléctricas a pensamientos, sueños, sentimientos o memorias, a todo lo que nos hace seres únicos e irrepetibles, está cambiando nuestro conocimiento del cerebro, de nosotros mismos y construyendo una nueva sociedad.</p>
<h2>Preguntas pendientes</h2>
<p>Aunque hemos avanzado mucho en las últimas décadas aún son muchas las cuestiones por resolver: qué es la consciencia –de hecho, ni siquiera sabemos bien cómo funciona la anestesia–, qué es la inteligencia –y no, parece que no hay inteligencias múltiples ni una inteligencia emocional–, por qué soñamos –aunque hay quien piensa que es el ruido que hace el cerebro mientras hace el mantenimiento diario y otros que creen que es una manera de imaginar escenarios, estar preparados ante diversas situaciones que nos puede tocar vivir, una especie de catálogo de escenarios posibles–.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=570&fit=crop&dpr=1 600w, https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=570&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=570&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=716&fit=crop&dpr=1 754w, https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=716&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/243245/original/file-20181031-76387-ibyqtz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=716&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">‘El próximo San Valentín dibuje un cerebro y demuestre a su pareja no solo la profundidad de sus sentimientos sino también la extensión de sus conocimientos neurobiológicos’.</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-vector/top-view-brain-form-red-cartoon-565938031">Shutterstock / zooco</a></span>
</figcaption>
</figure>
<p>No son preguntas recientes: los filósofos griegos clásicos se planteaban dónde residía la mente, qué era el genio, cómo aprendíamos, qué eran las pasiones o de dónde venía la locura. El problema es que solo con el razonamiento las explicaciones eran frágiles, las conclusiones no eran contrastadas con la realidad y algunos errores se consolidaron y repitieron durante siglos. Si cree que eso no sucede ya, recuerde que cada catorce de febrero dibujamos corazones rojos para expresar nuestro amor porque Aristóteles dijo que allí residían los sentimientos. Así que ya sabe, el próximo día de San Valentín ¡dibuje un cerebro y demuestre a su pareja no solo la profundidad de sus sentimientos sino también la extensión de sus conocimientos neurobiológicos!</p>
<p>Todo eso lo cambió la aparición de la ciencia en el Renacimiento y, junto con la generalización de la duda, la desconfianza en los testimonios de autoridad, el desarrollo de la experimentación, la pasión por la tecnología y el nacimiento de la estadística, se formó un modo de pensar y actuar, la ciencia, que se ha constituido en el pilar de las sociedades avanzadas modernas.</p>
<p>En la actualidad las técnicas de neuroimagen nos permiten ver el cerebro en acción, la secuenciación génica nos permite entender los genes que regulan conductas o confieren riesgos para distintos trastornos, los fármacos nos permiten actuar sobre transmisores y receptores modificando la química cerebral y el comportamiento. Aún así, no tenemos nada eficaz contra algunas de las enfermedades más devastadoras como el Alzheimer o el Parkinson, no sabemos por qué algunos niños desarrollan autismo y otros no y por qué es cinco veces más común en niños que en niñas, no sabemos de dónde vienen las voces que hablan desde la mente de un esquizofrénico y le piden que se haga daño, no entendemos cómo se entra o se sale de una depresión.</p>
<h2>Predicciones</h2>
<p>El gran físico danés Niels Bohr, científico al que cuando ganó el premio Nobel en 1922 la empresa Carlsberg le puso una tubería de cerveza directamente desde una cervecería cercana hasta su domicilio, decía que “predecir es muy difícil, y sobre todo el futuro”. Pues bien, vamos a jugar a ese juego: ¿Qué nos deparan los próximos años en el ámbito de la neurociencia?</p>
<p>Los científicos son esos reyes magos que nos dejan regalos maravillosos en nuestra ventana, no una vez al año, sino todos los días. Repasemos algunos deseos de una lista imaginaria y aportemos información sobre cada uno de ellos:</p>
<blockquote>
<p><strong>Que consigamos retrasar el envejecimiento.</strong> </p>
</blockquote>
<p>Envejecer es un proceso complejo y deseable, puesto que la alternativa es mucho peor. Científicos del Instituto Salk han conseguido <a href="https://www.nytimes.com/2016/12/15/science/scientists-say-they-can-reset-clock-of-aging-formice-%20at-least.html">revertir las señales de envejecimiento en ratones</a>, incrementando la vida de los animales en un 30 por ciento.</p>
<blockquote>
<p><strong>Que podamos controlar neuronas individuales.</strong> </p>
</blockquote>
<p>Ingenieros del <em>Massachusetts Institute of Technology</em> (MIT) han automatizado un procedimiento para <a href="https://www.ncbi.nlm.nih.gov/pubmed/27385800">monitorizar neuronas en el cerebro vivo</a> utilizando un algoritmo que analiza imágenes microscópicas y guía un brazo robótico a la célula elegida. </p>
<p>También podemos usar <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5018252/">técnicas de optogenética que activan o desactivan genes</a> en una neurona determinada usando pulsos láser. Podemos manipular neuronas sin causarles ningún daño.</p>
<blockquote>
<p><strong>Que entendamos por qué nos enamoramos.</strong> </p>
</blockquote>
<p>Investigadores de la Universidad de California San Diego han comprobado que los olores corporales cambian la expresión génica, alteran nuestros transmisores cerebrales, lo que a su vez modifica nuestro comportamiento y <a href="https://www.nature.com/articles/nature07886">genera un proceso que llamamos atracción</a>.</p>
<blockquote>
<p><strong>Que podamos mover cosas con la mente a distancia.</strong></p>
</blockquote>
<p>Investigadores de la Universidad de Washington consiguieron que <a href="https://www.washington.edu/news/2013/08/27/researcher-controls-colleagues-motions-in-1st-human-brain-to-brain-interface/">un investigador pudiera dar una orden cerebral y mover la mano de otro colega mediante una conexión vía Skype</a>. La primera conexión directa cerebro a cerebro entre dos humanos. </p>
<p>Pero no está exenta de riesgos. Un grupo de investigadores de la misma universidad ha demostrado que puede recoger información detallada sobre personas usando un <a href="https://www.washington.edu/news/2015/04/27/%20new-uw-app-can-detect-sleep-apnea-events-via-%20smartphone/">software que convierte un smartphone o teléfono inteligente en un sistema de sónar activo</a>, que permite conocer la posición y movimientos del usuario sin que él lo sepa.</p>
<blockquote>
<p><strong>Que logremos saber si existe el libre albedrío.</strong></p>
</blockquote>
<p>Un grupo de científicos de la facultad de Medicina de Monte Sinaí ha visto que 200 milisegundos <a href="http://www.nyu.edu/gsas/dept/philo/faculty/block/papers/BerlinTreatment.pdf">antes de que creamos tomar una decisión, se detecta una señal en nuestro cerebro</a>. El valor esperado de nuestra decisión se calcula multiplicando su valoración por la probabilidad de conseguir la recompensa deseada. Estos resultados parecen sugerir que antes de que creamos qué decidimos, nuestro cerebro ya lo ha hecho por nosotros.</p>
<blockquote>
<p><strong>Que recuperemos memorias perdidas.</strong> </p>
</blockquote>
<p>Theodore Berger, ingeniero biomédico y neurocientífico de la Universidad del Sur de California, ha diseñado <a href="https://www.technologyreview.es/s/3492/implantes-de-memoria">chips que imitan el procesamiento de las neuronas</a> cuando recuerdan experiencias y desarrollan la capacidad de generar recuerdos. Se están probando en soldados que han perdido la memoria por heridas causadas en atentados o acciones de guerra.</p>
<blockquote>
<p><strong>Que los lesionados medulares con paraplejia vuelvan a andar.</strong> </p>
</blockquote>
<p>Distintos grupos están trabajando con exoesqueletos que reciben órdenes directamente desde el cerebro. Un parapléjico con un exoesquelto hizo <a href="https://www.vozpopuli.com/altavoz/next/Bioingeneria-Ciencia-Mundial_2014-Brasil-Miguel_Nicolelis-Exoesqueletos_0_706129426.html">el saque inaugural del Campeonato Mundial de fútbol en 2014</a> utilizando un gorro con electrodos y un exoesqueleto diseñado por Miguel Nicolelis.</p>
<blockquote>
<p><strong>Que podamos resolver problemas sociales como la violencia o la agresión.</strong></p>
</blockquote>
<p>Un artículo publicado en <em>Nature</em> demostraba que era posible <a href="https://www.ncbi.nlm.nih.gov/pubmed/28375200">alterar la composición de la microbiota</a>, lo que conocemos como flora intestinal, y que eso generaba cambios en el comportamiento de animales, disminuyendo la agresión y la violencia.</p>
<blockquote>
<p><strong>Que podamos eliminar las voces de la esquizofrenia.</strong> </p>
</blockquote>
<p>Un estudio realizado por el University College de Londres ha hecho <a href="https://www.bbc.com/news/health-42097781">avatares informáticos que son el retrato robot de las personas que oyen voces que les incitan a autoagredirse o causar daño a otras personas</a>. El equipo investigador ha conseguido que el terapeuta fuese progresivamente personando al avatar y consiguiendo eliminar las voces. El estudio se ha ampliado a un número mucho mayor de pacientes.</p>
<blockquote>
<p><strong>Que consigamos evitar la adicción a las drogas.</strong> </p>
</blockquote>
<p>Uno de los inventos más maravillosos de la historia de la humanidad, las vacunas, se están usando para conseguir <a href="https://www.agenciasinc.es/Noticias/Expertos-en-consumo-de-drogas-desarrollan-vacunas-contra-la-adiccion-a-tabaco-cocaina-y-marihuana">evitar los efectos de drogas psicoactivas como la nicotina o la cocaína</a> y conseguir que la persona afectada pueda abandonar su adicción.</p>
<blockquote>
<p><strong>Que podamos sustituir a las neuronas perdidas en el Alzheimer o el Parkinson.</strong> </p>
</blockquote>
<p>Nuestro grupo de trabajo utiliza células madre y <a href="https://www.elmundo.es/elmundo/2011/07/06/castillayleon/1309955035.html">hemos conseguido</a> ver cómo algunas células derivadas de un trasplante son capaces de integrarse en el tejido maduro, formar circuitos funcionales y mejorar las funciones sensoriales y motoras en un modelo animal de neurodegeneración.</p>
<blockquote>
<p><strong>Que tengamos máquinas con emociones.</strong> </p>
</blockquote>
<p>Las empresas son cada vez más conscientes de que parte de la satisfacción de sus clientes se consigue vía sus emociones y es necesario diseñar interacciones que muestren mayor comprensión emocional. </p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=900&fit=crop&dpr=1 600w, https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=900&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=900&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1131&fit=crop&dpr=1 754w, https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1131&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/243249/original/file-20181031-76413-1yrkoem.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1131&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">El robot Pepper.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Pepper_the_Robot.jpg">Wikimedia Commons / Softbank Robotics Europe</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Tendremos programas, mascotas robóticas, ordenadores que nos harán sentir que comprenden nuestras emociones, que son empáticas con nosotros, que reconocerán señales humanas como el interés, la tensión, el enfado o el placer y que se comunicarán para que nuestro comportamiento se ajuste a unos objetivos. Ya existen: está <a href="https://www.jibo.com/">JIBO</a>, el robot familiar; <a href="https://www.humanizing.com/pepper-en/">Pepper</a>, el robot de compañía; y <a href="https://hipertextual.com/archivo/2014/02/emospark/">EmoSPARK</a>, el sistema que toma tu pulso emocional, adapta su personalidad a la tuya y busca comprender qué es lo que te hace feliz y lo que te hace infeliz. </p>
<p>Nuestros aparatos cada vez están más conectados a internet, pero necesitamos sistemas que adapten la fría lógica de las máquinas con algo más emocional, más humano.</p>
<p>¿Cómo lo harán? Las máquinas buscarán nuestras señales emocionales. Puede ser detectar cambios en nuestra expresión facial, extraer información de una llamada como el volumen de voz, el timbre y la proporción entre palabras y pausas en los diez primeros segundos de un mensaje, usar una nariz electrónica capaz de detectar moléculas odorantes características, por ejemplo el famoso olor a miedo, aprovechar la información de cómo usamos nuestro tecleado, velocidad, ritmo o el uso de la tecla de retroceso. Con esa información es posible ya identificar el estado emocional de una persona con bastante exactitud. Las máquinas serán capaces de sentir emociones humanas muy pronto y exhibirán una inteligencia emocional social, similar a las de los mamíferos.</p>
<p>El objetivo de esta lista era demostrar que toda una serie de cosas que parecen ciencia ficción, son ya una realidad, o al menos se han dado pasos importantes en los laboratorios de investigación cerebral. Es decir, el futuro ya está aquí. El futuro cercano nos deparará avances que apenas podemos imaginar, que cambiarán nuestras vidas, y nos ayudarán a desarrollar una sociedad más desarrollada, más justa, más inclusiva, más empática, más cerebral.</p>
<hr>
<p><em>Este artículo <a href="https://telos.fundaciontelefonica.com/telos-109-analisis-el-futuro-del-cerebro/">fue publicado </a>originalmente en la <a href="https://telos.fundaciontelefonica.com/">Revista Telos</a>, de la <a href="https://www.fundaciontelefonica.com/">Fundación Telefónica</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/106043/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>José Ramón Alonso Peña recibe y ha recibido fondos de investigación de entidades nacionales e internacionales (Unión Europea).</span></em></p>Los últimos avances nos permiten especular sobre cómo serán las posibilidades en el futuro inmediato, incluyendo comprensión y reparación antes impensables y una mayor integración con el mundo cibernético.José Ramón Alonso Peña, Catedrático de Biología celular. Neurobiólogo., Universidad de SalamancaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1047252018-10-14T20:43:34Z2018-10-14T20:43:34ZLa séptima ley de la robótica: cómo hacer de los robots humanos ejemplares<figure><img src="https://images.theconversation.com/files/240216/original/file-20181011-154539-dqc35s.jpg?ixlib=rb-1.1.0&rect=15%2C0%2C5095%2C3355&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">¿Humanos o robots? La ciencia prevé un futuro sin distinción entre ambos.</span> </figcaption></figure><p>Si viviéramos ya en un mundo futuro y existieran robots equipados con inteligencia artificial, iguales en todo lo demás a los humanos, ¿sería necesario que fueran conscientes de que lo son? Es decir, ¿debe un robot saber que no es un ser humano? Imagínese viviendo en ese mundo sin saber si usted es o no un robot: ¿querría saberlo?, ¿sería conveniente? Si no hay diferencias fundamentales entre humano y robot, ¿tiene sentido saber si se es una cosa o la otra?</p>
<p>Ya convivimos con robots. No siempre los llamamos así, pero están en todas partes: en nuestras cocinas, en los móviles, pilotan los aviones, regulan las transacciones bursátiles, acabarán por conducir nuestros vehículos, o los vehículos serán robots, etc.</p>
<p>Para <a href="https://en.wikipedia.org/wiki/Nikola_Kesarovski">Nikola Kesarovski</a> es fundamental que el robot sepa que lo es. En su obra <em>La quinta ley</em> (1983), un robot que desconoce su condición acaba con un ser humano al darle un abrazo demasiado cariñoso. No tenía intención de hacer daño. Esta situación es relevante porque normalmente se recurre a las famosas tres leyes de la robótica que <a href="https://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica">Asimov</a> expuso en 1942 (<em>Círculo vicioso</em>) como lenitivo ante el temor que produce la posibilidad de convivir con robots en todo mejores que nosotros y, además, casi inmortales. El problema es que esas leyes no tienen en cuenta los excesos afectuosos.</p>
<h2>Seis leyes de la robótica</h2>
<p>La primera las leyes de Asimov establece que ningún robot ocasionará daño a un humano por acción u omisión. Lamentablemente, esta ley da más problemas que soluciones porque es complicado definir lo que es daño. Por ejemplo, recientemente se ha creado un <a href="http://www.elmundo.es/tecnologia/2018/10/03/5bb36895e2704ea53f8b457b.html">robot albañil</a>. Aparentemente, esto no ocasiona daño a nadie. Sin embargo, si deja sin trabajo a los que ahora se dedican a ello, ¿no estaría ocasionando un daño? Pero, si dejara de construir, el “daño” se lo estaría causando a quienes esperan la vivienda.</p>
<p>Para superar esos problemas, algunos autores de ciencia ficción han sentido la necesidad de complementar las tres leyes de Asimov. Lubien Dilov dio la cuarta en su obra <em>El camino de Ícaro</em> (1974): “Todo robot debe identificarse siempre como tal”. Y Kesarovsky enuncia la quinta más o menos así en su obra <em>La quinta ley</em> (1983): “Todo robot debe saber siempre que es un robot”. Tal vez sería más correcto alterar el orden de estas dos leyes, ya que resulta evidente que para identificarse como robot debe saberse primero que se es tal cosa. </p>
<p>Puede añadirse otra, de Harry Harrison: “Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (de Asimov)”. Para Harrison, ésta era la cuarta ley: aparece en su obra de 1986 <em>La cuarta ley de la robótica</em>. Entraría en conflicto con la de Dilov en cuanto al orden que han de seguir. Pero esto es un detalle menor. El caso es que hay seis leyes con las que se pretende desvanecer cualquier amenaza que la convivencia con robots pueda suponer en el futuro. Son, ordenadas según mi criterio:</p>
<ol>
<li>Un robot no debe dañar a un ser humano o permitir, por inacción, que sufra daño un ser humano (Asimov, 1942).</li>
<li>Un robot debe cumplir las órdenes dadas por seres humanos, salvo aquellas que entren en conflicto con la primera ley (Asimov, 1942).</li>
<li>Un robot debe proteger su propia existencia, siempre que esta protección no entre en conflicto con las leyes primera o segunda (Asimov, 1942).</li>
<li>Un robot debe saber siempre que es un robot (Kesarovsky, 1983).</li>
<li>Un robot debe identificarse siempre como tal (Dilov, 1974).</li>
<li>Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (Harrison, 1986).</li>
</ol>
<p>Creo que para solucionar el problema que ocasiona la primera ley y que se ha mencionado antes, convendría redactarla de la siguiente manera:</p>
<ol>
<li>Un robot no iniciará nunca un acto de agresión contra la vida o la propiedad de un ser humano.</li>
</ol>
<p>Esta redacción es más adecuada por dos motivos: en primer lugar, al decir que no “iniciará” nunca un acto de agresión, permite pensar en la posibilidad de robots encargados de garantizar la seguridad, que se verían obligados, tarde o temprano, a responder a actos violentos iniciados por humanos. En segundo lugar, los robots podrían llevar a cabo acciones que, siendo perjudiciales para los humanos, como ocupar puestos de trabajo, no podrían considerarse como agresión, por lo mismo que no lo consideramos así cuando lo hace un ser humano.</p>
<h2>La séptima ley</h2>
<p>También se ha eliminado en esta nueva redacción la idea de daño por inacción. Esto puede parecer extraño, ya que un robot que no acuda a socorrer a un humano en peligro no estaría realizando ninguna agresión, pero tampoco serviría como salvavidas, por ejemplo. Los robots podrían permanecer impasibles ante actos de agresión cometidos por unos humanos sobre otros, o no ayudar nunca a nadie que lo necesite.</p>
<p>En realidad, no es un problema, ya que los robots están programados para ejecutar determinadas tareas, como por ejemplo salvar vidas en la piscina, y no podrán dejar de llevarlas a cabo; es decir, no podrán nunca no actuar, no habrá omisión. Es lo que establece la segunda ley: han de obedecer.</p>
<p>Si, tal y como se afirma que ocurrirá, los robots llegarán a tener conciencia de sí mismos y, en consecuencia, podrán decidir “libremente” qué acciones llevar a cabo o no, las leyes mencionadas no serán de aplicación. Habría que sustituir “debe” por “puede” y, por eso mismo, dejarían de ser leyes. Además, los robots ya no se distinguirían de nosotros y no sería fácil justificar que tuvieran que regirse por leyes distintas a las nuestras.</p>
<p>Este es el caso que genera más preocupación. De hecho, las leyes de Asimov impiden el desarrollo de una conciencia autónoma o, si se desarrolla, impiden que se aplique en la práctica. Si los robots, en todo más inteligentes que nosotros, más fuertes, más resistentes, sin enfermedades, con vidas útiles larguísimas, etc., tienen, además, conciencia de sí mismos, no cabe esperar que sean muy indulgentes con nosotros. Y si no nos trataran mal serían como santos, a los que les resultaríamos indiferentes, o peor, innecesarios.</p>
<p>Por ello, por si adquieren autoconciencia, hay que añadir una séptima ley con el fin de humanizarlos. La llamo ley, pero ello no quiere decir que lo sea en sentido estricto, o que haya de ser impuesta de alguna manera, ya que es probable que surgiera de manera espontánea y simultánea con la conciencia de sí mismos. Podría enunciarse así: </p>
<ol>
<li>Un robot debe sentir deseo por aquello mismo que los otros robots desean.</li>
</ol>
<h2>Robots y humanos</h2>
<p>De este modo, al tener deseos miméticos (como los llamaba <a href="http://www.alcoberro.info/pdf/girard1.pdf%5D">René Girard</a>), serán en todo iguales a nosotros. Surgirá entre ellos el conflicto y se verán obligados, para evitar que los destruya, a hacer lo mismo que nosotros: usar la política, de la que depende la civilización. </p>
<p>Serán así civilizados y tratarán de establecer garantías que aseguren la integridad y la libertad de cada uno, tendrán que respetar la autonomía individual, se preocuparán por la justicia, se dotarán de un orden jurídico, adoptarán normas morales, etc., y, lo que es más importante, sentirán empatía por quienes “sólo” somos formas de vida con base de carbono, menesterosas, llenas de deseos. Lo político, que procura la convivencia, será esencial también para ellos.</p>
<p>Serán libres, necesitarán de la política y podremos buscar un bien común. Probablemente, entonces, no sea relevante distinguir a un humano de un robot, pero no porque nos hayamos deshumanizado nosotros, sino porque se hayan humanizado ellos.</p><img src="https://counter.theconversation.com/content/104725/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Roberto Losada Maestre no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Serán libres, necesitarán de la política y podremos buscar un bien común. Llegará un punto en el que no será relevante distinguir a un humano de un robot, porque éste se habrá humanizado.Roberto Losada Maestre, Profesor de Teoría Política, Universidad Carlos IIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1045022018-10-07T20:54:17Z2018-10-07T20:54:17ZMedio siglo después, ‘2001: Una odisea del espacio’ aún nos ayuda a comprender el futuro<figure><img src="https://images.theconversation.com/files/239528/original/file-20181005-72106-1q0m500.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C1022%2C573&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Incluso 17 años después del 2001 de ficción, los trajes espaciales son más voluminosos en la realidad.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/scarywardrobe/8999720714/">Matthew J. Cotter/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Durante una <a href="https://www.cbsnews.com/news/2001-a-space-odyssey-movie-50th-anniversary/">proyección especial</a> por el 50 aniversario de <em>2001: Una odisea del espacio</em>, yo, <a href="http://neukom.dartmouth.edu/people/rockmore.html">matemático y científico computacional</a> dedicado a la investigación en el área de la Inteligencia Artificial, no pude evitar ponerme a comparar el mundo actual con el futuro que predijo la película.</p>
<p>La película nació de la colaboración entre el escritor de ciencia ficción <a href="http://www.clarkefoundation.org/arthur-c-clarke-biography/">Arthur C. Clarke</a> y el director de cine Stanley Kubrick, y está inspirada en la novela <em>El fin de la infancia</em> de Clarke y en un cuento menos conocido del mismo autor: <em>El centinela</em>. </p>
<p>Esta obra constituye un impresionante trabajo de ficción especulativa que construye un futuro alentador a la par que aleccionador en el que se producen contactos alienígenas, y los viajes interplanetarios y las máquinas con consciencia son posibles. Se trata de un futuro en el que la humanidad da el siguiente gran salto evolutivo.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/sQUr44SO_Is?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Así comienza la banda sonora de ‘2001: A Space Odyssey.’</span></figcaption>
</figure>
<p>Uno de los aspectos que más evidencian el hecho de que 2018 no ha logrado alcanzar las expectativas de la visión de <em>2001</em> es el de los viajes espaciales. Todavía no es algo normal hacer viajes rutinarios a distintas estaciones espaciales, ni las visitas a ninguna de las muchas bases que debería haber en la luna, ni tampoco viajamos a otros planetas. Pero Kubrick y Clarke sí que dieron en el blanco cuando imaginaron las distintas posibilidades, problemas y retos que plantearía el futuro de la inteligencia artificial.</p>
<h2>¿Qué pueden hacer los ordenadores?</h2>
<p>Uno de los principales conflictos de la película puede verse como una lucha a muerte entre un humano y un ordenador. La inteligencia artificial de <em>2001</em>, encarnada por HAL, constituye una presencia computacional omnisciente, el cerebro de la nave Discovery One y, posiblemente, el personaje más famoso de la película. HAL representa el culmen de la computación: es un dispositivo con consciencia, aparentemente infalible, cuya presencia en la nave es ubicua; lo escucha todo y lo ve todo. </p>
<p>HAL no es un simple asistente tecnológico de la tripulación. Tal y como dice Dave Bowan, el comandante de la misión, HAL es el sexto miembro de la tripulación. </p>
<p>Los humanos hablan e interactúan con HAL, y él les responde con una voz masculina comedida, a medio camino entre la voz severa pero indulgente de un padre y la voz de un bienintencionado enfermero. </p>
<p>HAL es como <a href="https://es.wikipedia.org/wiki/Amazon_Alexa">Alexa</a> y <a href="https://es.wikipedia.org/wiki/Siri">Siri</a>, pero con el añadido de que HAL tiene total control sobre la nave y que, como se acaba sabiendo, es el único miembro de la tripulación que conoce el verdadero objetivo de la misión. </p>
<h2>Ética en las máquinas</h2>
<p>La tensión del tercer acto de la película gira en torno a cómo Bowman y su compañero de tripulación Frank Pool son cada vez más conscientes de que HAL no funciona correctamente, y cómo, por otro lado, HAL descubre sus sospechas. Dave y Frank quieren desconectar un ordenador defectuoso, pero HAL, que tiene consciencia propia, quiere vivir. En lo que sí coinciden es en que todos quieren llevar a término la misión.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/qDrDUmuUBTo?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Humano contra máquina.</span></figcaption>
</figure>
<p>El enfrentamiento a vida o muerte entre HAL y los humanos es precursor de algunas cuestiones actuales referentes al impacto de la prevalencia y el empleo de inteligencias artificiales en nuestras vidas diarias.</p>
<p>La primera cuestión, y la más importante, es cuánto control deberíamos ceder a una máquina con inteligencia artificial, sin importar lo “inteligente” que sea su sistema. </p>
<p>HAL, que controla la nave Discovery, es, en cierto modo, una versión espacial de las casas inteligentes del futuro o de los coches sin conductores. </p>
<p>Ciudadanos, <a href="https://www.sciencedirect.com/science/article/pii/S0267364909001514">políticos</a>, <a href="https://ieeexplore.ieee.org/abstract/document/7167238">expertos e investigadores</a> siguen explorando el grado en el que la automatización podría, o debería, <a href="https://www.trendmicro.com/vinfo/us/security/news/internet-of-things/fbi-warns-public-on-dangers-of-the-internet-of-things">relevar a los humanos</a>. Y aunque algunas de estas consideraciones tratan cuestiones relativamente simples sobre la <a href="https://www.theguardian.com/technology/2018/mar/22/self-driving-car-uber-death-woman-failure-fatal-crash-arizona">fiabilidad de las máquinas</a>, otras son bastante más delicadas. </p>
<p>Los actos de una máquina computacional son dictados por decisiones que los humanos codifican en algoritmos para controlar los dispositivos. </p>
<p>Los algoritmos, por lo general, tienen algún objetivo cuantificable hacia el que van progresando con cada una de sus acciones. Este objetivo puede ser, por ejemplo, <a href="https://theconversation.com/computers-to-humans-shall-we-play-a-game-77383">ganar una partida</a> a las damas o al ajedrez. Y, al igual que el sistema de una IA puede analizar las posiciones de las fichas de un tablero, también puede <a href="https://spectrum.ieee.org/automaton/robotics/industrial-robots/interview-brad-porter-vp-of-robotics-at-amazon">determinar la eficiencia de un almacén</a> o el <a href="https://www.wired.com/2014/05/google-data-center-ai/">uso energético de un centro de datos</a>.</p>
<p>Pero ¿qué ocurre cuando un <a href="https://theconversation.com/the-everyday-ethical-challenges-of-self-driving-cars-92710">dilema ético o moral</a> se interpone en la consecución de un objetivo? </p>
<p>Para HAL, que tiene consciencia, terminar la misión y seguir con vida pesa más que las vidas del resto de tripulantes. </p>
<p>¿Qué pasa entonces con un coche sin conductor? En este caso, ¿cuál sería la <a href="https://theconversation.com/safe-efficient-self-driving-cars-could-block-walkable-livable-communities-103583">prioridad de un coche autoconducido</a>? ¿Sería, por ejemplo, llevar a un pasajero de un lugar a otro lo más rápido posible, o evitar matar a los peatones que se crucen en su camino? En el momento en que alguien se ponga delante de un vehículo autónomo, ese tipo de objetivos entrarán en conflicto. En este caso, parece que la “elección” que habría que programar es bastante obvia. Pero ¿qué pasaría si el coche tuviese que “elegir” entre <a href="https://theconversation.com/the-everyday-ethical-challenges-of-self-driving-cars-92710">dos posibles escenarios</a> que resultaran, en ambos casos, en la muerte de una persona? </p>
<h2>Bajo vigilancia</h2>
<p>En una conocida escena, Dave y Frank acceden a una zona de la estación espacial donde piensan que HAL no podrá escucharles hablar sobre las dudas que tienen acerca de su estado y su capacidad para controlar la nave y dirigir la misión. Al final, acaban considerando la idea de apagarlo. Lo que no saben es que HAL puede verles a través de sus cámaras: el ordenador les lee los labios a través de una ventana y descubre sus planes.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/1s-PiIbzbhw?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">HAL lee los labios.</span></figcaption>
</figure>
<p>En el mundo actual, una versión de esa escena ocurre cada día, y a todas horas. A la mayoría de nosotros nos monitorizan continuamente a través de nuestros teléfonos, que <a href="https://theconversation.com/7-in-10-smartphone-apps-share-your-data-with-third-party-services-72404">permanecen encendidos</a> casi todo el tiempo, o a través del seguimiento de nuestras actividades en <a href="https://theconversation.com/snowden-a-picture-of-the-cybersecurity-state-65310">el mundo real y en la red</a> por parte de gobiernos y corporaciones. Los límites entre lo público y lo privado son cada vez más difusos.</p>
<p>Las relaciones entre los personajes de la película me hicieron plantearme cómo podrían coexistir, o incluso evolucionar juntas, máquinas y personas. </p>
<p>En la mayor parte de la película se puede apreciar que hasta las conversaciones entre humanos resultan inexpresivas, carentes de tono o emoción. Hablan del mismo modo en que ellos hablarían a una máquina y una máquina les hablaría a ellos. </p>
<p>La famosa escena de la muerte de HAL en la que Dave desconecta metódicamente sus enlaces lógicos me hizo preguntarme si a las máquinas inteligentes se las llegará a permitir algún día tener algo equivalente a derechos humanos. </p>
<p>Clarke creía que la Tierra no sería para los humanos más que una “<a href="http://www.simonandschuster.com/books/Space-Odyssey/Michael-Benson/9781501163937">estancia temporal</a>” y que la maduración y evolución de la especie llevará necesariamente a los humanos muy lejos de este planeta. </p>
<p><em>2001</em> tiene un final optimista: un humano atraviesa la <em>Puerta de las Estrellas</em>, marcando, así, el renacimiento de la especie. Pero para hacer esto en la realidad, tendremos que averiguar primero cómo hacer el mejor uso posible de las máquinas y los dispositivos que estamos construyendo y asegurarnos de no perder el control sobre ellos.</p><img src="https://counter.theconversation.com/content/104502/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Daniel N. Rockmore es decano asociado de Ciencias, director del Neukom Institute for Computational Science y profesor de Matemáticas y Ciencias de la Computación en Dartmouth College. También forma parte del comité directivo científico del Instituto Santa Fe y es miembro de su Facultad Externa. </span></em></p>Medio siglo después del debut del clásico de Kubrick-Clarke, seguimos discutiendo sobre cómo debería ser y evolucionar la inteligencia artificial.Daniel N. Rockmore, Professor, Department of Mathematics, Computational Science, and Computer Science, Dartmouth CollegeLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1027822018-09-16T21:07:40Z2018-09-16T21:07:40ZEn el cuerpo de un avatar<figure><img src="https://images.theconversation.com/files/235299/original/file-20180906-190673-esaryf.jpg?ixlib=rb-1.1.0&rect=38%2C0%2C5137%2C3453&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La corporalidad mediada es la ilusión tecnológicamente inducida de experimentar un cuerpo de un avatar robótico o virtual como si fuera propio.</span> <span class="attribution"><a class="source" href="https://www.pexels.com/photo/man-with-steel-artificial-arm-sitting-in-front-of-white-table-39349/">Pexels</a></span></figcaption></figure><p>Tecnologías de comunicación emergentes como la realidad virtual o los robots tele-operados tienden progresivamente a integrar el cuerpo humano en la interfaz. Esta simbiosis plantea una serie de retos apasionantes. Por ejemplo, ¿es capaz el ser humano de experimentar un cuerpo artificial como propio?, ¿dónde se localiza el sentido del yo en el transcurso de una experiencia de corporalidad mediada?, o ¿cómo afecta al comportamiento humano encarnarse temporalmente en un cuerpo artificial?</p>
<p>Expliquemos algunos conceptos que rodean este tema. </p>
<p>La “corporalidad” (del inglés, <em>embodiment</em>) indica el hecho de existir en el mundo a través de un cuerpo mientras que el adjetivo “mediada” indica que la experiencia se crea artificialmente utilizando las tecnologías de la comunicación y lo distingue a su vez del concepto de <em><a href="https://www.youtube.com/watch?v=JYacDPOWsmE">embodiment</a></em> usado con acepciones distintas en otras disciplinas como la Filosofía, la Psicología, o la Robótica.</p>
<h2>El fenómeno de la corporalidad mediada</h2>
<p>Así, la corporalidad mediada es la ilusión tecnológicamente inducida de experimentar un cuerpo de un avatar robótico o virtual como si fuera propio. El concepto de <em>body-ownership</em>, ampliamente estudiado bajo el paradigma de la <a href="https://www.theguardian.com/science/2016/oct/20/rubber-hand-illusion-reveals-how-the-brain-understands-the-body">ilusión de la mano de goma</a> (<em>rubber-hand illusion</em>), ayuda a entender porqué ocurre este fenómeno. </p>
<p>Existen dos tecnologías principales que permiten la corporalidad mediada: la realidad virtual y los robots.</p>
<p>En la realidad virtual, los avatares son los personajes virtuales que adoptan los usuarios como forma de auto-representación en el entorno virtual. La identificación con avatares no solo tiene lugar con personajes virtuales que presentan una forma altamente humana. Trabajos previos han demostrado que los humanos también son capaces de experimentar como propios cuerpos de avatares con formas no-humanas, como animales o figuras geométricas, e integrar partes de un cuerpo virtual que no se corresponden con la estructura corporal del cuerpo humano, como extremidades adicionales o incluso una cola. </p>
<p>Además, las personas encarnadas en cuerpos virtuales son capaces de aprender a utilizar rápidamente un nuevo cuerpo que presente un esquema corporal sustancialmente distinto y completar satisfactoriamente ciertas tareas usando las características específicas del cuerpo adoptado.</p>
<p>Encarnarse en el cuerpo de un robot avatar es otra forma emergente de corporalidad mediada. La literatura existente sugiere que los humanos pueden experimentar la ilusión de adoptar el cuerpo de un robot humanoide como propio, tanto de apariencia ultra-realista, es decir, el cuerpo de un androide, como de apariencia altamente robótica. </p>
<p>Un estudio reciente sugiere que los usuarios pueden incluso percibir la sensación de tacto de los objetos que tocan a través del robot durante una experiencia de corporalidad mediada, sin que su mano física tenga contacto real con esos objetos. </p>
<h2>Cuestiones y retos en torno a la corporalidad mediada</h2>
<p>La corporalidad mediada plantea importantes cuestiones que los investigadores deben analizar a medida que las tecnologías de corporalidad mediada avancen.
En primer lugar, los humanos encarnados en avatares y cuerpos artificiales experimentan y procesan su entorno cognitiva y emocionalmente a través de estos cuerpos, como si formaran parte de ellos mismos. </p>
<p>Porque tiene consecuencias sobre el comportamiento humano. Se ha demostrado que las características relacionadas con la apariencia del avatar causan cambios sobre las actitudes y el comportamiento del usuario que encarna al avatar. Varios estudios han demostrado que la capacidad de las experiencias de corporalidad mediada para modificar comportamientos y actitudes en realidad virtual resulta útil para el tratamiento de la fobia social, reducir los prejuicios raciales, promover el comportamiento pro-social o las actitudes de defensa del medio ambiente.</p>
<p>Ante eso, ¿debería considerarse un cuerpo artificial parte del cuerpo del usuario que lo encarna? Y, en dicho caso, ¿debemos tratar los cuerpos sustitutos encarnados por otras personas de la misma forma y siguiendo las mismas normas morales y legales que usamos en relación a un cuerpo humano de carne y hueso?</p>
<p>Por otro lado, la corporalidad mediada implica re-conceptualizar la noción del “yo”. En este tipo de experiencias, el sentido del “yo” es transportado a un organismo externo física o virtualmente ubicado en un lugar diferente. Esa “transportación” que tiene lugar durante la corporalidad mediada reta posiciones filosóficas que defienden una mente exclusivamente ubicada dentro de los límites del cuerpo. La corporalidad mediada muestra que los límites del sentido del “yo” van más allá de los marcados por el cuerpo y no coinciden con éstos. </p>
<p>En este sentido, la corporalidad mediada está en línea con la tesis de la mente extendida, que defiende que la conciencia no se limita al cuerpo físico sino que se extiende más allá, al entorno y al mundo. </p>
<p>Las tecnologías de corporalidad mediada serán sin duda uno de los mayores retos y campos de estudio en los próximos años. Dado el potencial de estas tecnologías y el importante rol que se espera que desarrollen en la sociedad, desde fines lúdicos y de entretenimiento, mediáticos, científicos, médicos, o docentes, a fines militares, de rescate, o de realización de actividades peligrosas para los humanos, es importante que los investigadores estudien este fenómeno para poder predecir las potenciales consecuencias negativas de su utilización, así como para potenciar sus usos positivos aplicados. </p>
<hr>
<p><em>Si desea leer <a href="https://telos.fundaciontelefonica.com/en-el-cuerpo-de-un-avatar/">la versión original</a> de este artículo, está publicada en la <a href="https://telos.fundaciontelefonica.com/">Revista Telos</a>, de la <a href="https://www.fundaciontelefonica.com/">Fundación Telefónica</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/102782/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Laura Aymerich-Franch no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Es capaz el ser humano de experimentar un cuerpo artificial como propio?, ¿dónde se localiza el sentido del yo en el transcurso de una experiencia de corporalidad mediada? ¿cómo afecta al comportamiento humano encarnarse temporalmente en un cuerpo artificial?Laura Aymerich-Franch, Investigadora Ramón y Cajal en Comunicación, Universitat Pompeu FabraLicensed as Creative Commons – attribution, no derivatives.