tag:theconversation.com,2011:/nz/topics/proteccion-de-datos-63311/articlesprotección de datos – The Conversation2023-05-30T18:27:18Ztag:theconversation.com,2011:article/2046332023-05-30T18:27:18Z2023-05-30T18:27:18ZSe paraliza el organismo para la transparencia en México y estas son sus consecuencias<figure><img src="https://images.theconversation.com/files/528842/original/file-20230529-24-hhwic5.jpg?ixlib=rb-1.1.0&rect=66%2C95%2C4854%2C3157&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/mexico-flag-depicted-on-screen-program-1201702192">Mehaniq/Shutterstock</a></span></figcaption></figure><p>El organismo que se encarga de tutelar el derecho de acceso a la información y la transparencia en México está bajo amenaza. Se trata del <a href="https://home.inai.org.mx/?page_id=1626">Instituto Nacional de Transparencia, Acceso a la Información Pública y Protección de Datos Personales (INAI)</a>, ante el cual las personas pueden inconformarse para obligar a las autoridades a que entreguen documentos públicos</p>
<p>El INAI fue creado en 2002. Para entender su rol, en España hay dos organismos que realizan sus funciones: el <a href="https://www.consejodetransparencia.es/ct_Home/index.html">Consejo de Transparencia y Buen Gobierno</a> y la <a href="https://www.aepd.es/es">Agencia Española de Protección de Datos</a>. Otros entes similares en Latinoamérica son la <a href="https://www.argentina.gob.ar/aaip">Agencia de Acceso a la Información Pública</a>, en Argentina; o el <a href="https://www.consejotransparencia.cl/">Consejo para la Transparencia</a>, en Chile. </p>
<p>Pero la fortaleza del INAI mexicano se basa en que <a href="https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-91932017000200085">cuenta con autonomía y, en consecuencia, tiene la facultad de sancionar</a> a las autoridades que incumplan con la entrega o publicación de información pública. </p>
<p>En las últimas semanas, el presidente Andrés Manuel López Obrador y miembros de su gabinete <a href="https://www.infobae.com/mexico/2023/04/19/adan-augusto-califico-al-inai-como-un-lastre-burocratico-que-no-garantiza-la-transparencia/">han descalificado públicamente al INAI</a>, describiéndolo como “lastre burocrático”, que “no sirve para nada” y que cuesta mil millones de pesos –casi 53 millones de euros– al erario.</p>
<p>El presidente vetó el nombramiento de dos comisionados del INAI. Esto, sumado a la conclusión del periodo de un tercer comisionado, ha dejado al pleno con cuatro integrantes, en lugar de los siete que la ley contempla. Ante la negativa de información pública, las quejas de los ciudadanos no pueden ser analizadas, ni deliberadas. </p>
<h2>Impacto social</h2>
<p>El papel de la transparencia ha sido fundamental para que la prensa publicara información sobre escándalos como<a href="https://es.wikipedia.org/wiki/Caso_Odebrecht"> el Caso Odebrecht</a>, <a href="https://www.infobae.com/america/mexico/2020/07/10/la-casa-blanca-el-escandalo-de-corrupcion-que-dio-la-puntilla-al-gobierno-de-pena-nieto/">la Casa Blanca</a> (la entrega al expresidente Peña Nieto de una mansión por parte de un contratista del gobierno) o <a href="https://www.animalpolitico.com/estafa-maestra/">la Estafa Maestra</a>, una red de corrupción con empresas fantasma con la que funcionarios saquearon 7 000 millones de pesos –más de 369 millones de euros–.</p>
<p>Pero la transparencia también tiene un impacto en la vida cotidiana de las personas, que han logrado obtener gracias a resoluciones del INAI documentos como su historial laboral o expedientes médicos (necesarios para pedir una segunda opinión de especialistas) cuando les son negados por alguna minucia burocrática.</p>
<p>Esto ha ocurrido, de 2014 a 2023, en 157 000 ocasiones, en las que <a href="https://home.inai.org.mx/?page_id=3348">el INAI ha obligado a diversas dependencias a entregar información a los ciudadanos</a>. Con la parálisis del pleno están congelados 2 133 recursos de revisión, más los que se acumulen.</p>
<p>La transparencia y el acceso a la información son importantes en sí mismos, pero también son una llave que abre la puerta a otros derechos, como la salud. En 2017, gracias a solicitudes de información, <a href="https://www.animalpolitico.com/sociedad/comunidad-chiapas-medico-medicinas">un grupo de madres indígenas de Chiapas pudo conseguir médicos y medicinas para su comunidad.</a> </p>
<h2>Cifras de la transparencia</h2>
<p>El ejercicio de la transparencia ha crecido en México. En 2017 se presentaron 292 852 solicitudes de información, y en 2022 aumentaron a 363 062. En total, de 2003 a la fecha, van más de tres millones de solicitudes.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=88&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=88&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=88&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=110&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=110&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523653/original/file-20230501-991-fr3cui.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=110&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">ESTADISTICAS INAI.</span>
</figcaption>
</figure>
<p>Si bien los ciudadanos pueden seguir solicitando información en la Plataforma Nacional de Transparencia, si una autoridad la niega no hay quien resuelva las inconformidades, porque el pleno del INAI está incompleto.</p>
<h2>La protección a la privacidad</h2>
<p>El INAI también tutela la protección de datos personales y los <a href="https://ayudaleyprotecciondatos.es/derechos-arco/">derechos ARCO (Acceso, Rectificación, Cancelación y Oposición)</a>. Por ejemplo, los ciudadanos pueden solicitar a través del INAI la corrección de datos en un certificado de defunción de su familiar o de un documento de crédito de vivienda. </p>
<p>En 2022 el instituto multó a 78 empresas que hacían mal uso de datos personales. Con la parálisis del pleno del INAI, este tipo de resoluciones también quedan en vilo.</p>
<p>Asimismo, el INAI ha detenido proyectos invasivos a la privacidad, como el <a href="https://www2.deloitte.com/mx/es/pages/dnoticias/articles/adios-a-padrones-de-datos.html">Padrón Nacional de Usuarios de Telefonía Móvil</a>, que obligaba a los ciudadanos a entregar datos biométricos y fue invalidado por la Suprema Corte de Justicia de la Nación en abril de 2022, derivado de los recursos legales presentado por el INAI y otros interesados.</p>
<p>En México la transparencia ha sido fundamental para divulgar casos de corrupción, pero también impacta en temas de salud, laborales, crediticios o en la privacidad. Hay que ser autocríticos para admitir que los especialistas y servidores públicos dedicados a la transparencia no hemos sabido transmitir a la sociedad la importancia de estos derechos y, por tanto, las descalificaciones contra el INAI han encontrado eco en un sector de la población. </p>
<p>El presupuesto anual que recibe, por casi mil millones de pesos –casi 53 millones de euros–, se debe al incremento de sus atribuciones derivado de la reforma de 2014. <a href="https://micrositios.inai.org.mx/todasytodos/?page_id=353">Aún así, apenas representa el 0,01 % del gasto total del erario.</a></p>
<p>El argumento de que <a href="https://www.radioformula.com.mx/nacional/2023/5/2/verdades-del-inai-cuanto-ganan-los-comisionados-que-si-que-no-pueden-hacer-con-la-informacion-760513.html">“el INAI no ha metido a nadie a la cárcel”</a>, como han señalado partidarios del gobierno, es impreciso, porque el INAI tiene como objetivo garantizar el acceso a la información pública. Los que se dedican a procurar e impartir justicia en esta materia son la Fiscalía Anticorrupción y los juzgados penales.</p>
<p>Sin embargo, senadores del partido gobernante (<a href="https://lopezobrador.org.mx/programa-del-movimiento-regenarcion-nacional/">Movimiento para la Regeneración Nacional</a>) han impulsado iniciativas de ley para hacer desaparecer al INAI y que dependencias de gobierno absorban sus funciones. Sería un retroceso, pues el gobierno no puede ser juez y parte, sobre todo <a href="https://www.redalyc.org/pdf/5039/503954318010.pdf">en un país donde la corrupción permea en diversas dependencias.</a> </p>
<p>El poder ejecutivo se ha referido al INAI con una narrativa que niega datos y cifras e ignora la premisa de que el derecho de acceso a la información y la transparencia tutelados por un instituto sólido y profesionalizado son inherentes para las democracias.</p><img src="https://counter.theconversation.com/content/204633/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Julio Alejandro Ríos Gutiérrez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>El Instituto Nacional de de Transparencia, Acceso a la Información Pública y Protección de Datos Personales (INAI) tiene la facultad de sancionar a las autoridades que no cumplan con la presentación de información pública.Julio Alejandro Ríos Gutiérrez, Profesor y Analista Político. Periodismo Digital, comunicación, Transparencia, Protección de Datos Personales, Combate a la Corrupción y temas de actualidad., Universidad de GuadalajaraLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2045592023-05-07T19:34:47Z2023-05-07T19:34:47ZEl difícil equilibrio de regular la inteligencia artificial: entre el progreso y la cautela<figure><img src="https://images.theconversation.com/files/524063/original/file-20230503-21-snfdyf.jpg?ixlib=rb-1.1.0&rect=63%2C136%2C6945%2C4430&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/internet-law-concept-3d-rendering-ai-1159392712">Phonlamai Photo/Shutterstock</a></span></figcaption></figure><p>En los últimos meses se han producido rápidos e inesperados avances en inteligencia artificial (IA). Podemos crear imágenes a voluntad con herramientas como Midjourney o <a href="https://theconversation.com/es/topics/dall-e-125302">DALL-E</a> o hacer preguntas y conversar con <a href="https://theconversation.com/es/topics/chatgpt-132409">ChatGPT</a>. Y esto plantea también desafíos éticos, sociales y legales inéditos.</p>
<p>Los adelantos técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión. Cuando el tren empezó a sustituir a los caballos, se mezclaban preocupaciones fundadas (como los problemas de respirar humo) con otras que acabaron no siéndolo (como el miedo a <a href="https://www.sciencedirect.com/science/article/abs/pii/S0140673602504050">que los viajeros se asfixiaran en los túneles</a>). Con tiempo y perspectiva, se fue aclarando el panorama. </p>
<p>Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantice un uso responsable. Veamos algunos de los puntos más relevantes en este debate.</p>
<h2>Una delicada materia prima: los datos</h2>
<p>Detrás de herramientas como Midjourney o ChatGPT hay algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos. Por ejemplo, para que Midjourney pudiera crear imágenes a partir de texto, hizo falta recopilar miles de millones de imágenes con sus descripciones, <a href="https://www.bloomberg.com/news/features/2023-04-24/a-high-school-teacher-s-free-image-database-powers-ai-unicorns">descargándolas de Internet</a>. De ahí surge un conflicto de propiedad intelectual: ¿es legal usar contenidos protegidos por derechos de autor para enseñar a estos sistemas?</p>
<figure class="align-left ">
<img alt="Imagen generada por Midjourney con la descripción: A large language model is training on terabytes of data" src="https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&rect=0%2C0%2C1024%2C1019&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523480/original/file-20230428-14-dwkbzt.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Imagen generada con Midjourney.</span>
</figcaption>
</figure>
<p>Muchos artistas opinan que no: se están usando sus obras para crear otras obras, lo que pone en peligro su mercado. Por eso han <a href="https://www.polygon.com/23558946/ai-art-lawsuit-stability-stable-diffusion-deviantart-midjourney">denunciado</a> a los responsables de sistemas de este tipo. </p>
<p>Pero hay un argumento técnico en sentido opuesto: al aprender, estos sistemas no copian ni guardan en memoria las obras. Solo las usan para mejorar su conocimiento de cómo hacer la tarea. Algo no tan distinto de lo que hace un artista humano, que se deja influir e inspirar por el arte que ha visto.</p>
<p>Serán los tribunales de Estados Unidos los que decidirán si esto es un “<a href="https://es.wikipedia.org/wiki/Uso_justo">uso legítimo</a>” de los datos o no. Entretanto, la empresa Adobe trabaja en <a href="https://www.europapress.es/portaltic/software/noticia-adobe-presenta-firefly-nueva-familia-ia-generativa-creativa-basa-contenido-parametros-eticos-20230322133657.html">una alternativa</a> que no usa imágenes con derechos de autor sin consentimiento de los creadores.</p>
<h2>Europa, más rigurosa</h2>
<p>Otro conflicto, esta vez centrado en Europa, es el de la protección de datos. La legislación de la UE no permite, en general, procesar la información personal de nadie sin su consentimiento. Esto se aplica incluso a datos que son públicos en Internet. </p>
<p>Para aprender a conversar, ChatGPT ha necesitado centenares de miles de millones de palabras obtenidas de la Red. Estos textos pueden incluir menciones a personas, y nadie las ha eliminado ni pedido su consentimiento. El problema es que, en este caso, eso parece imposible dado el enorme volumen de los datos: una “solución Adobe” no es viable. </p>
<p>Por tanto, una interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT. De ahí que <a href="https://www.xataka.com/aplicaciones/italia-prohibe-chatgpt-infringir-gdpr-movimiento-que-vierte-sombra-duda-toda-europa">Italia lo haya prohibido</a>.</p>
<p>Lo malo es que una medida así perjudica gravemente la competitividad de un país. Por ejemplo, este tipo de herramientas <a href="https://diariodigitalis.com/programacion/2022/07/20/github-confirma-que-copilot-mejora-la-productividad-de-los-desarrolladores/">multiplican la productividad de los programadores</a>. Si una empresa tecnológica quiere contratar personal, ¿lo hará en un país donde se permitan o donde se prohíban? La pregunta se responde sola.</p>
<p>Así, los legisladores europeos se enfrentan a una situación incómoda: conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.</p>
<h2>¿Cómo la usamos?</h2>
<p>Otro aspecto clave de la regulación de la IA es para qué se usa. Hay que recordar que un algoritmo no es de por sí ético o no: es una herramienta que alguien usa para un fin. Por ejemplo, imaginemos un sistema que analice datos de un paciente y <a href="https://www.mdpi.com/1660-4601/20/4/3378">sugiera un diagnóstico</a>. Puede ser muy valioso para ayudar a un médico, adoptando este la decisión última según su propio criterio. En cambio, la misma tecnología sería un peligro si toma la decisión final, sustituyendo al facultativo.</p>
<p>La UE es consciente de esto, y está preparando <a href="https://www.europarl.europa.eu/news/es/headlines/society/20201015STO89417/regulacion-de-la-inteligencia-artificial-en-la-ue-la-propuesta-del-parlamento">una regulación</a> bajo el principio de “poner a la persona en el centro”: IA, sí, pero siempre bajo supervisión humana.</p>
<p>El problema es cómo llevarlo a cabo. Europa partía con unos años de ventaja preparando certificaciones para un uso responsable de la IA, pero <a href="https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/">ha retrasado el proceso</a> al irrumpir ChatGPT: ahora hay que contemplar el uso de una herramienta tan versátil que la puede usar cualquiera para multitud de fines, éticos o no. </p>
<p>Mientras tanto, Estados Unidos ha lanzado una <a href="https://ntia.gov/issues/artificial-intelligence/request-for-comments">consulta pública</a> sobre cómo crear una regulación así. Y <a href="https://www.aljazeera.com/economy/2023/4/13/china-spearheads-ai-regulation-after-playing-catchup-to-chatgdp">China también quiere hacerlo</a>, añadiendo el objetivo de que los sistemas de IA reflejen “los valores del socialismo”.</p>
<h2>¿Podría volverse contra nosotros?</h2>
<p>Hemos tratado algunos de los retos legales y éticos que plantea la IA en el presente. Pero ¿qué pasará a más largo plazo? Desde un punto de vista técnico, aún no está claro si se podrá seguir avanzando a un paso tan frenético como el de los últimos años. Pero si fuese así, los aspectos regulatorios que hemos visto serían solo el principio. </p>
<p>De ahí la <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/">petición de pausar por seis meses el desarrollo de nuevos sistemas</a>, firmada a finales de marzo por cientos de expertos y figuras mediáticas.</p>
<p>En este sentido, un desafío muy comentado es el de la automatización de muchos puestos de trabajo. Pero revisando la historia, la humanidad siempre ha creado tecnologías para aligerar la carga laboral, y hoy no renunciaríamos a ninguna. La clave está en cómo repartir el trabajo y la riqueza: lo ideal sería evitar empleos innecesarios (como <a href="https://www.planetadelibros.com/libro-trabajos-de-mierda/273969">denunciaba el antropólogo David Graeber</a>) y desigualdad que impida a parte de la población el acceso a una fuente de ingresos.</p>
<p>Otra preocupación a futuro es qué pasará si llegamos a desarrollar sistemas de IA conscientes. Hace poco, <a href="https://www.bbc.com/mundo/noticias-62280846">Google despidió a un ingeniero</a> por decir que uno de sus sistemas conversacionales ya lo era. Según el filósofo de la mente David Chalmers, <a href="https://philpapers.org/archive/CHACAL-3.pdf">no parece que esto sea así</a>; entre otras cosas, porque sistemas como ChatGPT no tienen memoria ni una personalidad estable.</p>
<p>Pero podría lograrse algún día. Si así fuera, habría que sopesar las implicaciones éticas de causar daño a un ser consciente, enfrentando dilemas parecidos a los que plantea la clonación. También tendríamos que evitar que la IA pudiese volverse contra nosotros, una de las motivaciones de la petición de pausa.</p>
<p>En suma, los últimos avances en IA obligan a un debate amplio sobre cómo regular su uso. Debemos prestar atención a los riesgos, pero sin olvidar que las revoluciones tecnológicas siempre han mejorado nuestra calidad de vida.</p><img src="https://counter.theconversation.com/content/204559/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Carlos Gómez Rodríguez recibe fondos públicos del Consejo Europeo de Investigación (European Research Council, ERC: ERC-2022-POC2 101100615, SALSA), del MCIN/AEI y FEDER (SCANNER-UDC, PID2020-113230RB-C21) y Xunta de Galicia (ED431C 2020/11).</span></em></p>El acelerado avance de tecnologías como ChatGPT ha sembrado la confusión entre usuarios y legisladores. ¿Hasta qué punto debe regularse sin renunciar a las oportunidades que ofrece?Carlos Gómez Rodríguez, Catedrático de Ciencias de la Computación e Inteligencia Artificial, Universidade da CoruñaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1975822023-01-12T17:33:24Z2023-01-12T17:33:24ZQué es un gestor de contraseñas y cómo afecta a los usuarios la brecha de datos de LastPass<figure><img src="https://images.theconversation.com/files/504183/original/file-20230112-60724-883wtq.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C4493%2C3375&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/stuttgart-germany-12302022-person-holding-cellphone-2245916915">Shutterstock / T. Schneider</a></span></figcaption></figure><p>LastPass, uno de los gestores de contraseñas más utilizados, <a href="https://techcrunch.com/2022/12/22/lastpass-customer-password-vaults-stolen/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAMk1PbleMiv74z3LVlTqTerXK6MNQtIwdGmLGXoGFkygqnU3ACf1eiPgqTL8RSjwBDm-8BKTSCGz_sMvbUvmIIoOHmEPMaKhPQIrhn3oPt8rqRH0xcidifsYwjoJ86vmYgQC9IPWLcTg0D9F_vOlJDXBgzWNN7HCdJi0ew1UKUuK">ha admitido en las últimas semanas</a> que la brecha de seguridad que sufrió durante el verano ha afectado a datos de sus usuarios. Esto significa que contraseñas de ciudadanos de a pie, las de sus correos electrónicos, sus bancos, sus monederos digitales, todo, han ido a parar a las manos de delincuentes. Aunque, en principio, cifradas.</p>
<p>El hecho ha desatado la alarma entre los usuarios de LastPass, y de otros que utilizan gestores de contraseñas similares. En este punto, ¿qué hacemos? ¿Continuamos fiándonos de estas soluciones? ¿Es posible hacerlo de otro modo?</p>
<h2>Cómo funciona un gestor de contraseñas</h2>
<p>Un ciudadano medio emplea hoy en día varias decenas de contraseñas, tanto en su esfera personal como profesional. Todas ellas deben ser <a href="https://pages.nist.gov/800-63-3/">diferentes y suficientemente largas, aleatorias y complejas</a>. De esta forma, una brecha de datos en un servicio sólo compromete la contraseña del usuario en ese servicio. Y se hace difícil para un adversario averiguar la contraseña por <a href="https://es.wikipedia.org/wiki/Ataque_de_fuerza_bruta">fuerza bruta</a>, usando diccionarios de contraseñas habituales o información personal sobre ese usuario (fecha de nacimiento, nombre de la mascota, etc.).</p>
<p>Esto hace imposible que se recuerden estas decenas de contraseñas, diferentes, largas, aleatorias y complejas. Por lo que, intuitivamente, la solución es “apuntarlas” en algún sitio. </p>
<p>La solución analógica es un cuaderno o libreta, pero el problema es que sus dueños tienen que protegerla muy bien, ya que si se pierde o alguien la roba, se verán comprometidas todas sus cuentas. Y además la tienen que llevar siempre con ellos para poder acceder en el día a día a todas sus aplicaciones y servicios.</p>
<p>La solución tecnológica es <a href="https://www.security.org/digital-safety/password-manager-annual-report/">el gestor de contraseñas</a>, que nos permite “apuntar” las contraseñas en formato digital, en un almacén. ¿Dónde se guardan? Hay dos alternativas: en el propio dispositivo del usuario o en la nube. Idealmente, cifradas de manera lo suficientemente robusta para que si el almacén de contraseñas se ve comprometido, no se puedan recuperar todas las contraseñas con facilidad. Cada usuario podrá descifrar sus contraseñas cuando necesite utilizarlas mediante una contraseña o frase maestra de la que depende la seguridad del gestor.</p>
<h2>Lo que sabemos de la brecha de LastPass</h2>
<p>En el verano del 2022 LastPass, con más de 25 millones de usuarios, <a href="https://blog.lastpass.com/2022/12/notice-of-recent-security-incident/">anunció que había sufrido una brecha de seguridad</a>. Los adversarios habían accedido al código de su solución y a otra propiedad intelectual, pero no a los almacenes de contraseñas de sus usuarios.</p>
<p>Sin embargo durante la navidad de ese 2022 admitieron que los atacantes habían podido acceder a datos personales de sus clientes y, lo que es peor, a las copias de seguridad de los almacenes de contraseñas de algunos de ellos. </p>
<p>En la notificación de la brecha no se proporciona el número de usuarios o de contraseñas afectadas, por lo que no podemos estimar el impacto real que ha tenido este incidente.</p>
<h2>El cifrado: la frase maestra</h2>
<p>El equipo de LastPass ha intentado tranquilizar a sus usuarios explicando que en estos almacenes la información crítica está cifrada con una clave que se obtiene a partir de la frase maestra de cada usuario. Estas frases tienen que ser desde el 2018, obligatoriamente, de 12 caracteres como mínimo, romperlas por fuerza bruta (lo que implica probar todas las combinaciones posibles) sería muy costoso en tiempo y en recursos. Se calcula que costaría <a href="https://www.techrepublic.com/article/how-an-8-character-password-could-be-cracked-in-less-than-an-hour/">varios miles de años</a>.</p>
<p>Pero si esta frase maestra se ve comprometida de otra manera, las contraseñas en los almacenes que se han visto afectados por la brecha se podrían descifrar. Esto podría ocurrir, por ejemplo, si los atacantes tuvieran éxito empleando alguna técnica de ingeniería social, por ejemplo, de <a href="https://es.wikipedia.org/wiki/Phishing"><em>phishing</em></a>. O si el usuario estuviera usando la misma frase maestra en otro servicio que se hubiera visto afectado también por una brecha de datos.</p>
<p>Así que queda en manos de cada usuario afectado la decisión de modificar o no todas las contraseñas que estaban guardadas en el almacén de LastPass. O al menos las de los servicios y aplicaciones más críticos en los que no haya configurado un segundo factor de autenticación (que haría que el compromiso de la contraseña no fuera tan crítico). Todo depende de la confianza que tengan en su frase maestra y en que ésta no se haya visto comprometida.</p>
<p>Además, surge una incertidumbre adicional, ya que no toda la información en los almacenes de LastPass se guarda cifrada. Esto significa que quien tenga acceso a ella podrá averiguar, por ejemplo, sin mayores esfuerzos, las URLs de las aplicaciones y servicios accedidos por cada usuario, e incluso otra información que pueda ayudar a realizar un perfilado de los usuarios afectados o a priorizar posteriores ataques. </p>
<p>Obviamente será más interesante invertir más tiempo y esfuerzos en recuperar las contraseñas de un presidente del gobierno o de una gran corporación que de un ciudadano medio.</p>
<h2>Entonces ¿debemos usar un gestor o no?</h2>
<p>A pesar del incidente que ha sufrido LastPass, y de que probablemente la gestión que han realizado de la crisis no haya sido la mejor posible desde el punto de vista de la comunicación y de la transparencia, <a href="https://www.cisa.gov/cybersecurity-awareness-month">el uso de gestores de contraseñas sigue siendo muy recomendable para todos los usuarios. Junto con la activación de un segundo factor de autenticación</a>, como mínimo, en las aplicaciones y servicios cuya seguridad sea crítica (correo principal, banco, etc.).</p>
<p>Simplemente, como en otros muchos casos, hay que informarse un poco antes de decidir cuál es la mejor alternativa para cada uno de nosotros. En este momento hay muchas dudas acerca de que LastPass lo siga siendo para alguien porque han encadenado ya un número significativo de incidentes. Es importante realizar una comparativa entre las diferentes opciones y valorar su precio, funcionalidad, flexibilidad y, obviamente, su seguridad, dado lo crítico que un incidente de estas características puede llegar a ser. </p>
<p>Gestor de contraseñas sí, pero no cualquiera, ni utilizado o configurado de cualquier manera. La seguridad de la frase maestra, por ejemplo, es crítica, y eso sí es nuestra responsabilidad.</p><img src="https://counter.theconversation.com/content/197582/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Marta Beltrán no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>LastPass, uno de los gestores de contraseñas más utilizados del mundo, ha sufrido una brecha de seguridad. ¿Qué consecuencias tiene un incidente de estas características? ¿En qué puede afectar a las personas que tenían sus contraseñas en LastPass? Y, lo más relevante, ¿es seguro seguir utilizando los gestores de contraseñas?Marta Beltrán, Profesor Titular de Universidad, Universidad Rey Juan CarlosLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1618712021-07-01T17:23:07Z2021-07-01T17:23:07ZDatos y derechos digitales: lo que conviene saber sobre las ‘apps’ infantiles<figure><img src="https://images.theconversation.com/files/409289/original/file-20210701-25-7m5jr.jpg?ixlib=rb-1.1.0&rect=14%2C7%2C4687%2C2537&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/childhood-technology-family-concept-little-kids-1103218646">Shutterstock / Syda Productions</a></span></figcaption></figure><p>Los menores se relacionan con la tecnología a edades cada vez más tempranas, lo que genera preocupación por proteger su privacidad, seguridad y confidencialidad en el entorno digital. </p>
<p>A pesar de que en los últimos años se han ido aprobando leyes, incorporando artículos específicos en la legislación existente, y creando normas para regular las <em>cookies</em> y la publicidad ilegal, muchos adultos no conocen qué normas hay o qué deben tener en cuenta cuando los más pequeños utilizan móviles y tabletas. </p>
<p>La normativa sobre la protección de los menores en el ámbito digital es variada y diferente según cada país. Estados Unidos fue pionero y desde el año 2000 cuenta con la <a href="https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule"><em>Children’s Onlinte Privacy Protection Act</em></a> (conocida como Ley Coppa) en la que se regula la forma en la que <em>apps</em>, juegos y sitios web están autorizados para recopilar y procesar información personal de los menores de 13 años. Esta norma se complementa con la <a href="https://www.fcc.gov/sites/default/files/childrens_internet_protection_act_cipa.pdf"><em>Children’s Internet Protection Act</em></a> (CIPA) sobre contenidos no adecuados en Internet. </p>
<p>En Europa el <a href="https://www.boe.es/doue/2016/119/L00001-00088.pdf">Reglamento (UE) 2016/679</a> regula el tratamiento de datos personales y la libre circulación de estos datos y especifica cuáles afectan a los menores y, por lo tanto, requieren una protección especial. </p>
<p>Esta consideración implica, tal y como destaca la <a href="http://www.apep.es/">Comisión de Menores de la Asociación Profesional Española de Privacidad (APEP)</a>, que los desarrolladores deben informar a los niños y a sus padres sobre el tratamiento de sus datos personales en un lenguaje “claro, sencillo y fácil de entender para su edad”.</p>
<p>En España, <a href="https://www.boe.es/eli/es/lo/2018/12/05/3">la Ley Orgánica 3/2018 de Protección de Datos Personales y Garantía de los Derechos Digitales</a> establece que, en lo relativo al tratamiento de datos personales, solo pueden dar directamente su consentimiento los mayores de 14 años (art.7).</p>
<h2>¿Qué ocurre con las <em>apps</em>?</h2>
<p>Las <em>apps</em> se regulan según la normativa anteriormente citada. Sin embargo, diferentes investigaciones han demostrado que la legislación sobre protección de datos <a href="https://www.sciendo.com/article/10.1515/popets-2018-0021">no siempre se cumple</a> en las aplicaciones <a href="https://www.nytimes.com/interactive/2018/09/12/technology/kids-apps-data-privacy-google-twitter.html?curator=MediaREDE">dirigidas a menores</a>. </p>
<p>Es necesario ser conscientes de que algunas aplicaciones pueden recopilar y compartir información personal, permitir compras integradas, facilitar el acceso a redes sociales, incluir publicidad no adecuada, monitorizar la ubicación del menor, utilizar la cámara o el micrófono para grabar sus reacciones cuando está interactuando con el dispositivo y compartir todo esto con terceros.</p>
<p>Para conseguir que los menores estén en un entorno seguro, los adultos no solo deben conocer la legislación vigente, sino también tener en cuenta una serie de aspectos sobre <a href="https://recyt.fecyt.es/index.php/ThinkEPI/article/view/thinkepi.2020.e14c02">seguridad</a>, privacidad y confidencialidad que se resumen a continuación:</p>
<ol>
<li><p><strong>Seguridad</strong>. Incorporación del control parental con instrucciones sobre si se hace desde el dispositivo o la <em>app</em>, con un sistema de bloqueo adecuado a la edad para evitar que se burle fácilmente.</p></li>
<li><p><strong>Privacidad y confidencialidad</strong>. La información debe estar en la web del desarrollador, la tienda y la propia aplicación, siempre en un lugar visible.</p></li>
<li><p><strong>Legislación aplicable</strong>. Saber qué ley afecta a la <em>app</em> y su ámbito geográfico; vigencia de la política de privacidad y sistema de información a los usuarios en caso de cambios.</p></li>
<li><p><strong>Información recopilada.</strong> Declaración expresa de no recopilar datos de menores o, si se recogen, indicación clara e inequívoca de la autorización paternal, saber qué datos son si se recaban de forma automática y si estos se ceden a terceros. </p></li>
<li><p><strong>Uso de la información</strong>. Quién la recopila, si se comparte con otras compañías y la finalidad.</p></li>
<li><p><strong>Almacenamiento de datos.</strong> Tiempo de conservación de los datos personales.</p></li>
<li><p><strong>Compras dentro de la <em>app</em>.</strong> Las aplicaciones deben indicar expresamente en la descripción de la tienda si incluyen compras integradas (<em><a href="https://paginasweb.tech/in-app-purchase/que-es-in-app-purchase/">In-App Purchase</a></em>).</p></li>
<li><p><strong>Publicidad.</strong> Es necesario comprobar si la <em>app</em> incorpora publicidad y, en caso positivo, si es solo de sus productos o también de terceros. </p></li>
<li><p><strong>Redes sociales.</strong> Conviene comprobar si la aplicación permite acceder a redes sociales o si este acceso está limitado a los adultos a través de algún sistema de control.</p></li>
</ol>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=1500&fit=crop&dpr=1 600w, https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=1500&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=1500&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1885&fit=crop&dpr=1 754w, https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1885&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/407658/original/file-20210622-15-14mf8ta.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1885&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Seguridad y privacidad. Aplicaciones para niños y niñas.</span>
</figcaption>
</figure>
<p>Como afirma <a href="https://www.infobae.com/america/opinion/2020/02/03/como-se-protege-a-los-ninos-en-internet-en-2020/">Demian Falestchi</a>, CEO de <a href="https://kidscorp.digital/">Kids Corp</a>, es fundamental crear un ecosistema digital seguro y relevante para niños que garantice experiencias innovadoras y entretenidas a través de herramientas que potencien marcas y creadores de contenidos. </p>
<p>Para ello no solo es necesario contar con un marco legal, sino también intentar que las aplicaciones, disponibles en tiendas de diferentes áreas geográficas, sean lo más homogéneas posible en lo relativo a la recogida y uso de datos, y especialmente a la edad considerada como mínima para el consentimiento parental. </p>
<p>Es imprescindible que los padres controlen las aplicaciones que descargan los niños y se involucren en su uso, que utilicen herramientas efectivas de control parental y especialmente que lean y comprueben la política de privacidad antes de descargarlas, ya que los menores no tienen ni la formación, ni la madurez suficiente para hacerlo. </p>
<p>Además, es importante incidir en la necesidad de obligar a los desarrolladores a que redacten las políticas de forma clara y comprensible con textos sencillos traducidos al idioma del usuario de la <em>app</em>. </p>
<p>Pero también que se diseñen mecanismos que permitan confirmar, inequívocamente, que un adulto es el que está autorizando la recogida de datos, en caso de que se haga, así como para verificar qué se está haciendo con los datos que se comparten con terceros. </p>
<p>Las tiendas de aplicaciones pueden ejercer presión al respecto comprobando que, efectivamente, la política de privacidad de un desarrollador cumple con los requisitos antes de autorizar la incorporación de sus productos al catálogo.</p><img src="https://counter.theconversation.com/content/161871/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.</span></em></p>Muchos adultos desconocen qué normas hay o qué deben tener en cuenta cuando los más pequeños utilizan móviles y tabletas. Además, no todos los desarrolladores las cumplen.Araceli García Rodríguez, Profesor. Biblioteconomía y Documentación, Universidad de SalamancaRaquel Gómez-Díaz, Profesora de Biblioteconomía y Documentación, Universidad de SalamancaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1603782021-05-12T18:03:41Z2021-05-12T18:03:41Z¿Hay vida más allá de WhatsApp?<figure><img src="https://images.theconversation.com/files/400083/original/file-20210511-15-gcpxz7.jpg?ixlib=rb-1.1.0&rect=12%2C6%2C4147%2C2575&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/editorial-use-illustrative-this-photo-illustration-1892399221">Shutterstock / viewimage</a></span></figcaption></figure><p>El <em>smartphone</em> es una <a href="https://revistas.marilia.unesp.br/index.php/transformacao/article/view/7131">tecnología transparente</a>. La fascinación que nos genera su pantalla <a href="https://www.jacobinmag.com/2015/03/smartphone-usage-technology-aschoff/">define nuestro presente</a> porque hemos descargado una parte de nuestra vida en él. Pero, si no queremos que se convierta en una herramienta de control, tenemos que ir más allá del cristal. Entender que nos conecta con personas reales, y reflexionar sobre la política del ciberespacio.</p>
<p>El teléfono inteligente es una herramienta con la que interactuamos con el mundo. Los iconos que ocupan su pantalla no son juguetes, es una interfaz que nos permite hacer cosas. WhatsApp, por ejemplo, es una piedra angular de nuestra sociedad. En sus chats hacemos de todo, desde componer canciones hasta cerrar tratos; desde conservar recuerdos hasta enamorarnos. Cada vez que pulsamos el icono verde, entramos en un mundo de posibilidades reales, porque compartimos conversaciones con personas reales. </p>
<h2>Falta de entendimiento y desinformación</h2>
<p>Es cierto que nuestra relación con WhatsApp ha empeorado. Hay chats en los que evitamos entrar, y grupos en los que nunca respondemos. Pero las funciones básicas de la <em>app</em> no han cambiado, sigue siendo un espacio de diálogo entre personas. Solo que ahora lo enturbiamos al reenviar <a href="https://www.sciencedirect.com/science/article/pii/S0213911120301953">memes sin criterio</a>, compartir <a href="https://www.researchgate.net/profile/Javier-Serrano-Puche/publication/343416411_Uso_del_clickbait_en_los_medios_nativos_digitales_espanoles_Un_analisis_de_El_Confidencial_El_Espanol_eldiarioes_y_OK_Diario_Preprint/links/5f291bbe92851cd302d86710/Uso-del-clickbait-en-los-medios-nativos-digitales-espanoles-Un-analisis-de-El-Confidencial-El-Espanol-eldiarioes-y-OK-Diario-Preprint.pdf">enlaces a artículos de prensa que no hemos leído</a> o interrumpir <a href="https://www.elconfidencial.com/tecnologia/2021-04-21/chapuza-partidos-whatsapp-cazar-votos-ayuso-madrid_3042739/">con ideas de otras personas</a> para no escuchar. Y al igual que en otros espacios, cuando el diálogo se rompe, las conversaciones se pierden. </p>
<p><a href="https://blog.whatsapp.com/more-changes-to-forwarding/?lang=es">WhatsApp puede limitar la función de reenvío</a> para que reflexionemos antes de actuar: ¿a quién le puede interesar ese mensaje? ¿qué es lo que dice? Eso limita el bombardeo constante que colapsa nuestra atención. </p>
<p>No obstante, la responsabilidad sigue siendo individual. Salvar nuestros chats y grupos, evitar que la desinformación y la crispación colonicen nuestras conversaciones está en nuestras manos. Solo tenemos que actuar responsablemente, de manera civilizada. </p>
<h2>WhatsApp, ¿una necesidad?</h2>
<p>La otra opción es que WhatsApp se rompa, y con él, una parte de nuestro día a día. ¿Qué haríamos? ¿Cómo rehacer nuestra vida sin esta aplicación, sin las personas con las que conectamos? Hay gente que solo nos responde a los wasaps, ¿la perderíamos?</p>
<p>No es algo impensable. Yo, <a href="https://faq.whatsapp.com/general/security-and-privacy/what-happens-when-our-terms-and-privacy-policy-updates-take-effect/">el 15 de mayo me quedo sin WhatsApp</a>. No he hecho nada malo. Me echan de WhatsApp porque soy un privilegiado. Tengo la suerte de que los chats esenciales para mi vida están en <a href="https://signal.org">Signal</a>. No necesito entrar en WhatsApp todos los días. Tengo alternativa, y puedo valorar tranquilamente si quiero aceptar los nuevos cambios en las condiciones de servicio que plantea Facebook. </p>
<p>La mayoría de mis contactos habrán dado a “Aceptar” sin leer, con las prisas de ver un mensaje. Otros sí lo habrán leído y, aunque no les agrade, tienen que aceptar la coacción de Facebook a regañadientes. Su única alternativa es que toda su agenda se pase de golpe a otra herramienta de mensajería. Esto incluye jefes, contactos de trabajo, y personas que no saben instalar aplicaciones. Necesitan seguir en WhatsApp y tienen que aceptar lo que impone Facebook. Están atrapados, son rehenes, y <a href="https://epub.wu.ac.at/7523/1/HCIS2020_A%20Human-centric%20Perspective%20on%20Digital%20Consenting_The%20Case%20of%20GAFAM_Soheil%20Human_Florian%20Cech.pdf">no tienen escapatoria</a>. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=386&fit=crop&dpr=1 600w, https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=386&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=386&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=485&fit=crop&dpr=1 754w, https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=485&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/400086/original/file-20210511-19-9tj2ch.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=485&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Signal, aplicación de mensajería alternativa a WhatsApp y Telegram.</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/january-14-2021-brazil-this-photo-1893927007">Shutterstock / rafapress</a></span>
</figcaption>
</figure>
<h2>Las leyes europeas, un escudo de privacidad</h2>
<p>Sin embargo, no están desamparados. La ley está de nuestra parte. El <a href="https://es.wikipedia.org/wiki/Reglamento_General_de_Protecci%C3%B3n_de_Datos">Reglamento General de Protección de Datos</a> (RGPD) europeo choca con las nuevas condiciones de servicio de WhatsApp. Al parecer, la ciudadanía europea nos garantiza un trato especial y <a href="https://www.xataka.com/aplicaciones/whatsapp-limitara-funciones-app-no-aceptamos-sus-nuevas-condiciones-que-esta-pasando-como-nos-afecta">no afectarán a cómo van a tratar nuestros datos</a>. </p>
<p>Pero leyendo la política de privacidad, no queda del todo claro. Hay <a href="https://www.whatsapp.com/legal/updates/privacy-policy-eea?eea=1#privacy-policy-updates-legitimate-interests">reductos para que puedan utilizarlos</a> y quedan <a href="https://www.whatsapp.com/legal/updates/privacy-policy-eea?eea=1#privacy-policy-updates-third-party-information">cabos sueltos</a>. Johannes Caspar, director de la Agencia de Protección de Datos y Libertad de Información de Hamburgo también <a href="https://www.euronews.com/2021/05/11/germany-bans-facebook-from-handling-whatsapp-data-over-privacy-concerns">nos alerta sobre la opacidad con la que actúa Facebook</a>. </p>
<p>Para Facebook, el RGPD europeo es un problema. Incluso ha intentado presionar a las instituciones <a href="https://www.theguardian.com/technology/2020/sep/22/facebook-says-it-may-quit-europe-over-ban-on-sharing-data-with-us">insinuando que dejarían de operar en la UE</a> si no solucionaban <a href="https://about.fb.com/news/2020/09/securing-the-long-term-stability-of-cross-border-data-flows/">los problemas que suponía para su negocio no poder llevar nuestros datos fuera de Europa</a>. Atención, “su negocio” no es operar una red social, sino convertir Facebook Ads en <a href="https://www.facebook.com/business/ads/ad-targeting">la mejor plataforma posible</a> para <a href="https://es.wikipedia.org/wiki/Segmentaci%C3%B3n_de_mercado">segmentar el mercado</a>. Su negocio requiere recopilar todo tipo de datos y <a href="https://ssd.eff.org/es/module/por-qu%C3%A9-los-metadatos-son-importantes">metadatos</a>. </p>
<h2>La responsabilidad individual</h2>
<p>Tranquiliza saber que Facebook no es capaz de procesar nuestros datos en Europa de manera satisfactoria. Significa que todavía hay sitio para que la política también pueda “limitar los reenvíos” de los gigantes tecnológicos (las <a href="https://en.wikipedia.org/wiki/Big_Tech" title="Big Tech">Big Tech</a>). Por eso el RGPD está inspirando <a href="https://www.redipd.org/es/tribuna/europa-protege-sus-datos-personales">cambios a nivel global</a>. </p>
<p>En esta línea, el Comité Jurídico Interamericano, órgano consultivo de la Organización de Estados Americanos, <a href="https://www.redipd.org/sites/default/files/2021-05/CJI-doc_638-21.pdf">acaba de aprobar unos <em>Principios Actualizados sobre Privacidad y Protección de Datos Personales</em></a> que ofrecen mayor seguridad a los usuarios. Revisado por la Red Iberoamericana de Protección de Datos, el documento constituye una base legislativa de protección de datos para los países del continente americano, en especial para aquellos que aún no poseen legislación en este tema.</p>
<p>La posición privilegiada de quienes tenemos la ciudadanía europea, no puede ser un motivo para consentir una imposición injusta. No podemos refugiarnos tras una ciudadanía digital en las fronteras inexistentes del ciberespacio. La solución no es inventar pasaportes digitales. Tenemos que asumir una responsabilidad conjunta, y la solución más sencilla es aplicar la <a href="https://web.archive.org/web/20190306191516/https://www.facebook.com/notes/mark-zuckerberg/a-privacy-focused-vision-for-social-networking/10156700570096634/">visión de futuro que Mark Zuckerberg presentó para Facebook en 2019</a>. </p>
<p>A través de una nota de prensa, Zuckerberg proclamaba que es necesario respetar la privacidad del usuario y apunta medidas como recopilar “menos información personal”, y recordar que “la mejor manera de proteger la información más delicada es no almacenarla”. Aplicando estas ideas, Facebook no tendría problemas con la RGPD, y WhatsApp no tendría que cambiar su política de privacidad. </p>
<p>Necesitamos afrontar la realidad del ciberespacio. Aceptar que es una parte de nuestra vida y asumir una responsabilidad ciudadana. Debemos cuidar nuestras conversaciones en chats, y tomar decisiones conscientes sobre la tecnología que las hace posibles. </p>
<p>Dejar que Facebook me eche de WhatsApp es una manera invitar a quienes más me importan a dialogar sobre esto, aunque tendrá que ser en Signal.</p><img src="https://counter.theconversation.com/content/160378/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Iago Ramos coordina el Proyecto de Innovación Docente "Signal como Aula virtual", y es un traductor voluntario de la aplicación Signal al español. No recibe ninguna compensación económica. </span></em></p>Los cambios en las condiciones de servicio de la aplicación que entran en vigor el 15 de mayo ofrecen una oportunidad para reflexionar sobre la ciudadanía digital.Iago Ramos, Profesor Ayudante Doctor. Filosofía de la Cultura y Educación para la Ciudadanía, Universidad de SalamancaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1359662020-04-08T11:13:37Z2020-04-08T11:13:37ZLas “Arcas de Noé” y la geolocalización en los tiempos de protección de datos personales<figure><img src="https://images.theconversation.com/files/326454/original/file-20200408-97704-7cwnfq.jpg?ixlib=rb-1.1.0&rect=8%2C1500%2C5982%2C2488&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/geolocate-people-infected-coronavirus-1683604441">Shocky / Shutterstock</a></span></figcaption></figure><p>Tras la ya prácticamente confirmada finalización de la primera etapa, cuyo objetivo principal era el de alcanzar el máximo pico de contagios de coronavirus en nuestro país, el Gobierno, con el Ministerio de Sanidad como cabeza visible, se plantea ahora una nueva estrategia a seguir para la siguiente fase, también conocida como “fase de transición”, siendo su objetivo primordial el de doblegar el pico de contagios. </p>
<p>Del mismo modo, se pretende que el levantamiento del confinamiento actual de la población, aprobado en virtud del <a href="https://www.boe.es/diario_boe/txt.php?id=BOE-A-2020-3692">Real Decreto 463/2020, de 14 de marzo</a>, y el cual, con casi total seguridad, tendrá lugar <a href="https://www.lamoncloa.gob.es/presidente/intervenciones/Paginas/2020/prsp04042020.aspx">de forma progresiva</a>, no conlleve una nueva ola de contagios.</p>
<h2>“Arcas de Noé” y Apps de geolocalización</h2>
<p>En este sentido, el Gobierno está barajando diferentes escenarios posibles, entre los cuales se encuentra el confinamiento en infraestructuras públicas y/o privadas de ciudadanos con sintomatología leve o asintomáticos, las conocidas informalmente como “Arcas de Noé”, que ya han sido empleadas en China con resultados favorables en la paralización del contagio. </p>
<p>El nombre bíblico de “Arca de Noé” <a href="https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(20)30744-3/fulltext">tiene su origen en China</a> el pasado mes de febrero, cuando las autoridades convirtieron lugares como estadios y pabellones públicos en hospitales provisionales. La finalidad de este nuevo uso de las instalaciones consistía en aislar de sus familiares a los pacientes leves de Covid-19. El símil bíblico es, por tanto, evidente, pues, en ambos casos se mencionan lugares seguros ante una adversidad externa, llámese ésta diluvio universal o coronavirus. </p>
<p>Bajo esta previsión el presidente del Gobierno ha realizado un llamamiento a las autonomías para que realicen un listado de infraestructuras destinadas a posibles aislamientos selectivos de población, aunque éstos tendrían carácter voluntario. Precisamente, la aclaración por parte del Ejecutivo del carácter voluntario de posibles aislamientos se realiza tras los debates suscitados en torno a la posible vulneración de derechos fundamentales en caso de realizarse de forma obligatoria.</p>
<p>Por otra parte, ya se encuentra operativa y disponible en algunas comunidades autónomas la aplicación móvil del Gobierno contra el coronavirus, la llamada “<a href="https://asistencia.covid19.gob.es/">AsistenciaCOVID-19</a>”. El objetivo principal de esta aplicación es la autoevaluación de la ciudadanía, descongestionando así los teléfonos de atención sanitaria, a la misma vez que se ofrece una mayor y más actualizada información. Sin embargo, es precisamente la cuestión referente a la geolocalización de los usuarios de la aplicación, lo que ha suscitado cierta polémica en torno a la garantía de la protección de datos personales y, en este caso en particular, a la posible “vigilancia encubierta” del Ejecutivo para garantizar el cumplimiento del periodo de cuarentena.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=398&fit=crop&dpr=1 600w, https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=398&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=398&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=501&fit=crop&dpr=1 754w, https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=501&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/326451/original/file-20200408-179217-18qbjpe.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=501&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Captura de la aplicación oficial de autodiagnóstico AsistenciaCOVID-19.</span>
<span class="attribution"><a class="source" href="https://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/asuntos-economicos/Paginas/2020/060420-asistencia-covid19.aspx">La Moncloa</a></span>
</figcaption>
</figure>
<h2>Derecho fundamental a la protección de datos</h2>
<p>Ante el nuevo escenario planteado por el Gobierno, son muchas las voces que cuestionan la idoneidad de la aplicación de estas medidas considerando que chocan directamente con la protección del derecho fundamental a la protección de datos de carácter personal, consagrado en nuestro texto constitucional en el <a href="https://app.congreso.es/consti/constitucion/indice/titulos/articulos.jsp?ini=18&tipo=2">art. 18.4.</a></p>
<p>Sin embargo, para comprender el alcance y contenido de este derecho fundamental debemos analizar la normativa vigente a nivel europeo en esta materia, el <a href="https://www.boe.es/doue/2016/119/L00001-00088.pdf">Reglamento 2016/679 de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos</a>, así como la norma española de referencia, la <a href="https://www.boe.es/buscar/doc.php?id=BOE-A-2018-16673">LO 3/2018, de 5 de diciembre, de protección de datos de carácter personal y garantía de los derechos digitales</a>.</p>
<p>En primer lugar, cabe señalar que el Considerando número 46 del citado Reglamento europeo ya prevé la posibilidad del tratamiento lícito de datos personales en casos excepcionales, entre los que se encuentra el control de epidemias y su propagación. </p>
<p>Igualmente, en lo que respecta a la licitud del tratamiento de estos datos, según el art. 6.1.e) y art.6.1.d) se permite su tratamiento sin consentimiento de los afectados cuando se realice una misión en interés público o necesaria para proteger los intereses vitales del interesado u otras personas físicas. </p>
<p>Dicho de otro modo, la normativa europea reconoce y permite expresamente el tratamiento de datos personales por parte de las autoridades públicas sin necesidad de consentimiento previo de los afectados, al entenderse que existe un interés público superior, que no es otro que la protección de la salud pública del país. </p>
<p>En este sentido se ha pronunciado <a href="https://www.aepd.es/es/documento/2020-0017.pdf">la Agencia Española de Protección de Datos en su informe de 12 de marzo de 2020</a> afirmando que “la aplicación de la normativa de protección de datos personales permitiría adoptar al responsable del tratamiento (en este caso, el Ministerio de Sanidad) aquellas decisiones que sean necesarias para salvaguardar los intereses vitales de las personas físicas, el cumplimiento de obligaciones legales o la salvaguarda de intereses esenciales en el ámbito de la salud pública”.</p>
<h2>Estado de alarma y límites de derechos</h2>
<p>España se define como un Estado social y democrático de Derecho en el artículo primero de nuestra Carta Magna. No obstante, la aprobación de uno de los tres escenarios previstos en el <a href="https://app.congreso.es/consti/constitucion/indice/titulos/articulos.jsp?ini=116&tipo=2">art. 116 de la CE</a>, el estado de alarma está originando la aplicación de medidas excepcionales hasta ahora nunca vistas en nuestra historia democrática reciente, que limitan (aunque no suspenden) alguno de nuestros derechos. El supuesto más evidente lo encontramos en la limitación de la libertad de circulación, permitiéndose solo en los casos expresamente señalados en el Real Decreto de aprobación del estado de alarma.</p>
<p>Como bien indica la propia <a href="https://www.boe.es/buscar/act.php?id=BOE-A-1981-12774">ley que desarrolla los estados de alarma, excepción y sitio</a>; las medidas adoptadas, así como la duración de las mismas, serán en cualquier caso las estrictamente indispensables para asegurar el restablecimiento de la normalidad. </p>
<p>Por este motivo, sí sería lícito el tratamiento de datos personales por parte del Ministerio de Sanidad a través de mecanismos de geolocalización con el objetivo de realizar estadísticas poblacionales que pudieran ayudar a las autoridades a adoptar medidas o diferentes protocolos en el marco de la crisis por el Covid-19. </p>
<p>Es importante en este punto señalar que ya el propio Ministerio reconoce expresamente en la información sobre la app que la misma “no recoge información continua de localización de los usuarios, ni rastrea su localización, ni tampoco realiza <em>geofencing</em> (control de desplazamiento) para determinar si el ciudadano se encuentra en su domicilio”.</p>
<p>Por tanto, medidas como las “Arcas de Noé” planteadas para evitar el repunte de contagios, así como la posible geolocalización con la finalidad de controlar posibles zonas calientes de contagios, solo son posibles bajo el paradigma de un estado excepcional, que no de excepción, como en el que nos encontramos. </p>
<p>Por ello, debemos tener cierta cautela al comparar medidas aplicadas en países tan diferentes cultural y jurídicamente como China y España. Pues, mientras que en España estas medidas limitadoras de derechos individuales deben ser provisionales hasta la finalización del estado de alarma, en China, sin embargo, la limitación de derechos o posibilidad de control por parte del Gobierno ya era algo palpable antes de la llegada del coronavirus a Wuhan.</p><img src="https://counter.theconversation.com/content/135966/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>María Dolores Montero Caro no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Las medidas como las denominadas “Arcas de Noé” de carácter voluntario planteadas para evitar el repunte de contagios, así como la posible geolocalización con la finalidad de controlar posibles zonas calientes de contagios, son perfectamente adecuadas a la normativa vigente sobre protección de datos.María Dolores Montero Caro, Doctora en Derecho Constitucional, Universidad de CórdobaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1336522020-03-14T14:46:31Z2020-03-14T14:46:31ZQué ha hecho Corea del Sur para frenar la curva del coronavirus en una semana<figure><img src="https://images.theconversation.com/files/320508/original/file-20200314-50598-1lg8o2n.jpg?ixlib=rb-1.1.0&rect=7%2C0%2C4985%2C2813&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/asian-man-wearing-surgical-face-mask-1650013183">Zephyr_p / Shutterstock</a></span></figcaption></figure><p>Corea del Sur ha conseguido controlar la pandemia de coronavirus en un tiempo récord de solo una semana gracias al diagnóstico masivo de su población. Parte de la estrategia ha consistido en distribuir una aplicación para móviles en la que, aportando los datos personales (domicilio, edad, sexo y teléfono o correo electrónico de contacto), se gestionaba la información sobre la enfermedad. </p>
<p>En caso de que el diagnóstico fuese positivo, al usuario se le ofrecía una cita para realizar el test. La prueba se llevaba a cabo en un punto de encuentro al que el usuario se desplazaba en coche, y donde los sanitarios hacían el test sin necesidad de salir del vehículo, de forma rápida y bastante segura. El paciente recibía el resultado a las 24 horas en su dispositivo. </p>
<p>Por si fuera poco, el gobierno de Corea del Sur tenía un canal de información en el que cada usuario podía conocer cómo de afectada se encuentra su zona de residencia.</p>
<p>No les ha ido mal el sistema. Con este protocolo no solo han evitado el colapso de los servicios telefónicos de información y de las ambulancias. Además, al no desplazar pacientes a los hospitales para las pruebas, se ha reducido considerablemente el riesgo de infectar o ser infectado.</p>
<h2>Controlado en menos de dos semanas</h2>
<p>En total, en Corea del Sur se han realizado más de 200 000 pruebas, que han permitido <a href="https://www.cdc.go.kr/board/board.es?mid=a30402000000&bid=0030">bajar la tasa de afectados</a> de 813 el 29 de febrero a 114 el 12 de marzo. Con lo que eso implica en cuanto a descongestión de hospitales, capacidad de atención a todos los pacientes críticos y posibilidad de hacer acopio de material según las necesidades. </p>
<p>Al mismo tiempo, la aplicación ha servido para controlar a los pacientes y asegurarse de que se respeta la cuarentena. ¿Cómo? Bien mediante el sistema de geolocalización o bien rastreando el uso de tarjetas de crédito para pagar o sacar dinero del banco. Cuando un ciudadano no respetaba la cuarentena, se le sancionaba directamente con una multa. Solo en casos de extrema necesidad se podía pedir un permiso de desplazamiento que se recibía en el móvil, a través de un código QR. </p>
<p>La colaboración entre sector público y el sector privado ha sido otra de las claves para conseguir que el sistema sea eficiente. El Ministerio de Sanidad y las empresas han colaborado tanto en la creación de la aplicación como en la recolección de los datos y su posterior análisis.</p>
<h2>¿Es posible aplicarlo en España?</h2>
<p>Llegados a este punto la pregunta que cabe hacerse es si podría aplicarse en nuestra sociedad un sistema parecido en el caso de una emergencia sanitaria como la que supone la actual pandemia.</p>
<p>Analicemos punto por punto. </p>
<p>En principio, la justificación de la utilización de datos sanitarios y personales es sencilla por el <a href="https://www.boe.es/buscar/act.php?id=BOE-A-2018-16673#a9">artículo 9.2 del Reglamento de Protección de Datos</a>, que permite su utilización cuando el sujeto cede la información mediante su consentimiento y cuando los sistemas de prevención médica o tratamiento sanitario lo determinen. En ese caso la legalidad se cumple y es posible que los ciudadanos cedan sus datos, no solo para estar al tanto de su situación médica sino también para conseguir volver a la normalidad y eliminar el riesgo que conlleva para la sociedad. </p>
<p>Sin embargo, y aquí está el quid de la cuestión, es esencial garantizar que los datos se van a utilizar única y exclusivamente para este objetivo médico. Que solo se van a guardar durante el tiempo necesario para la controlar la pandemia. Y también que los datos que van a manejar la administración y las empresas no se emplearán para otros fines ni se venderán a terceros. </p>
<p>Para ello, la correspondiente administración estatal o autonómica debe crear un mecanismo de información, seguridad, transparencia y gobierno abierto. Es la única vía para que los ciudadanos puedan sentir que sus derechos fundamentales a la sanidad y a la privacidad se van a mantener intactos. De hecho, esta ha sido una de las claves del éxito de la experiencia de Corea del Sur. </p>
<p>En estas situaciones es preciso que los gobiernos con competencias en materia de sanidad utilicen los datos del paciente para tomar las mejores decisiones posibles, gestionar los recursos y disminuir el impacto de la pandemia. Podríamos decir que es, incluso, una obligación.</p>
<p>Como lo es también que informen adecuadamente a los ciudadanos del uso de sus datos, limiten los datos solicitados a los mínimos necesarios, restrinjan en el tiempo su disponibilidad y prohíban su mal uso. </p>
<p>El <a href="https://www.boe.es/buscar/doc.php?id=BOE-A-2020-3692">Estado de alarma decretado en España</a> permite al Gobierno limitar los derechos de los ciudadanos. No salir de nuestra casa limita la libertad de movimiento. La utilización de los datos limita nuestra privacidad. </p>
<p>Sin embargo, hay una gran diferencia. La libertad de movimiento dura sólo 15 días. Los datos se van a conservar y usar más tiempo para controlar la pandemia. Nuestra privacidad se va a ver afectada durante más tiempo que el Estado de alarma. ¿Podrán utilizarse dentro de 15 años? </p>
<p>Solo poniendo unos límites éticos y jurídicos se conseguirá tener unas herramientas eficaces para la medicina y el interés público con una legitimación democrática que respete a los ciudadanos.</p><img src="https://counter.theconversation.com/content/133652/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Javier Valls Prieto recibe fondos de la Comisión Europea dentro del Programa H2020 en el proyecto SIENNA. </span></em></p>El país asiático ha frenado la epidemia con una aplicación móvil en la que, aportando datos personales, se gestiona información sobre la enfermedad. ¿Podría replicarse en España sin vulnerar derechos?Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de GranadaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1296522020-01-19T21:04:15Z2020-01-19T21:04:15Z¿Qué sabe de usted su robot aspirador?<figure><img src="https://images.theconversation.com/files/310263/original/file-20200115-134789-1nt3rvh.jpg?ixlib=rb-1.1.0&rect=0%2C207%2C4200%2C2584&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/young-girl-eating-popcorn-during-movie-787348768">Diego Cervo/Shutterstock</a></span></figcaption></figure><p>Durante los últimos años, uno de los productos más vendidos durante las jornadas de rebajas conocidas como <em>Black Friday</em> o <em>Cyber Monday</em> ha sido el robot aspirador. Sus avanzadas prestaciones, que permiten su puesta en marcha y funcionamiento cuando el usuario está ausente de su domicilio, han seducido de forma clara a los compradores. </p>
<p>Pero este éxito de ventas ha venido acompañado también de algunas dudas: ¿están estos robots adquiriendo datos sensibles que pueden ser vendidos en el mercado global de los datos personales? </p>
<h2>¿Qué tipo de datos recogen Roomba y compañía?</h2>
<p>El robot aspirador ha sido el primer caso de éxito de la robótica en el ámbito doméstico. En 2002 se fabricó la primera serie de robots Roomba, formada por 15 000 unidades, que se vendió en unas pocas semanas. 18 años más tarde <a href="https://www.therobotreport.com/robotic-cleaning-market-growing-exponentially/">se han vendido millones de unidades</a> y los robots aspiradores representan una importante cuota de mercado en el sector de la limpieza. </p>
<p>Estos agentes electrónicos han evolucionado en distintas direcciones, desde la incorporación de nuevas prestaciones como la capacidad de fregar suelos a la mejora de su “comportamiento inteligente”. Hoy en día disponen de sofisticados sistemas de navegación que les permiten volver a su base de carga en caso necesario y también optimizar la limpieza de una planta entera. </p>
<p>Pero más allá de la guerra de precios y del aumento de sus prestaciones, los robots domésticos han sido protagonistas en los últimos tiempos de <a href="https://www.nytimes.com/2017/07/25/technology/roomba-irobot-data-privacy.html">alguna polémica</a> relacionada con los datos que recogen sus sensores. </p>
<p>La mayoría de estos aparatos son capaces de usar los sensores para construir un mapa del espacio que deben limpiar y en el caso de los más sofisticados, utilizar cámaras que les permiten identificar obstáculos diversos. Estos mapas pueden ser consultados por los usuarios desde sus móviles usando la aplicación correspondiente. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=454&fit=crop&dpr=1 600w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=454&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=454&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=570&fit=crop&dpr=1 754w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=570&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/309962/original/file-20200114-151867-1xf7ucn.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=570&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Mapa creado por un robot doméstico de limpieza.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/41593446@N00/49383884198/">Jordi Vitrià/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<p>No es pues ningún secreto que la incorporación a nuestro entorno doméstico de robots semiautónomos conlleva un nivel de captación de datos muy avanzados: mapas de nuestra vivienda, imágenes, registros de temperatura y humedad, registros horarios, etc. </p>
<p>El <a href="https://www.reuters.com/article/us-irobot-strategy/roomba-vacuum-maker-irobot-betting-big-on-the-smart-home-idUSKBN1A91A5">anuncio</a> en 2017 por parte del fabricante de Roomba de la posible compartición de algunos de estos datos generó una primera polémica, aún no cerrada, sobre el derecho a la privacidad en el ámbito doméstico. ¿Debemos aceptar que se compartan datos sobre nuestra vivienda? ¿Qué límites se deben imponer? ¿Qué mecanismos tenemos para ejercer nuestros derechos?</p>
<p>La privacidad será, al menos durante la primera mitad del siglo XXI, una de las fuentes de conflicto en un mundo donde la captación de datos personales se ha simplificado extraordinariamente y en el que el cruce de diversas fuentes de datos permite crear perfiles muy precisos de los ciudadanos. </p>
<p>Las ventajas que aportará la digitalización y la robotización de nuestro entorno deberán <a href="https://theconversation.com/los-investigadores-deben-reflexionar-sobre-los-aspectos-eticos-del-uso-del-big-data-123693">ser analizadas críticamente</a> para no caer en modelos que facilitan la <a href="https://theconversation.com/como-algunas-empresas-usan-datos-de-nuestro-telefono-para-decidir-cuanto-cobrarnos-112392">manipulación social</a> por parte de los grandes agregadores de datos. </p>
<h2>¿Cómo se entiende la privacidad en este caso?</h2>
<p>La privacidad se puede definir como la capacidad de modular y controlar el acceso de terceros a nuestra información personal. No es un concepto simple. Para ejercer esta capacidad hacen falta herramientas y protocolos. </p>
<p>En el caso que nos ocupa, la captación de datos de nuestra vivienda se debería efectuar con una serie de requerimientos mínimos por parte de los fabricantes:</p>
<ul>
<li><p>El primero, el compromiso por defecto de no compartir ni vender estos datos a terceros sin el consentimiento expreso del usuario, preservando su intimidad, usando una estrategia que se ha llamado <a href="https://en.wikipedia.org/wiki/Privacy_by_design"><em>privacy by design</em></a>. </p></li>
<li><p>En el caso de solicitar el consentimiento, hacerlo de forma <a href="https://edps.europa.eu/data-protection/our-work/subjects/transparency_en">transparente</a>. La transparencia se refiere a definir de forma muy clara las intenciones de la demanda y el uso previsto de los datos: no es lo mismo ceder estos datos para que el fabricante mejore el producto en el marco de un proceso interno que venderlos a un tercero que los podrá usar para fines desconocidos. </p></li>
<li><p>Por último, hace falta poner a disposición del cliente mecanismos efectivos para ejercer sus derechos. La empresa debe hacerse <a href="https://edps.europa.eu/data-protection/our-work/subjects/accountability_en">responsable</a> del uso y consecuencias de la tecnología que utiliza. </p></li>
</ul>
<h2>¿Deberíamos estar preocupados?</h2>
<p>Aunque los datos personales que usa una aspiradora robotizada puedan parecer inocuos, su combinación con otras fuentes de datos, también inocuos cuando son considerados de forma independiente, tienen un alto valor para algunas empresas por su capacidad predictiva y también de manipulación, como han demostrado los últimos <a href="https://ieeexplore.ieee.org/document/8436400">escándalos alrededor de Cambridge Analytica</a>. </p>
<p>No hay ninguna prueba de que se haya producido ninguna fuga de datos relacionados con los robots aspiradores hasta el día de hoy. Incluso podemos afirmar que algunas empresas han avanzado en la implementación de los requerimientos de privacidad, pero el tema no está cerrado y hace falta mantener el foco sobre él. </p>
<p>Por una parte, la falta de una regulación que vaya más allá de la <a href="https://ec.europa.eu/info/law/law-topic/data-protection_es">normativa europea de protección de datos</a> hace difícil controlar el comportamientos de nuevas empresas en este ámbito con fuertes presiones para ampliar su cuota de mercado.</p>
<p>Por otra parte, <a href="https://twitter.com/carljackmiller/status/1133320833076748289">estudios independientes</a> parecen indicar que los datos de algunas aspiradoras robóticas son transmitidos a países con una legislación excesivamente laxa respecto a la privacidad.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1133320833076748289"}"></div></p>
<p>Si queremos mantener nuestra preocupación a niveles moderados hace falta una doble acción: dar soporte a las iniciativas de monitorización pública de cualquier elemento con capacidad de captura de información personal y también promover nuevas iniciativas legislativas que apoderen al ciudadano ante esta nueva realidad.</p><img src="https://counter.theconversation.com/content/129652/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jordi Vitrià no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>¿Debemos aceptar que se compartan los datos que los robots de limpieza recogen en las viviendas? ¿Qué límites se deben imponer? ¿Qué mecanismos tenemos para ejercer nuestros derechos?Jordi Vitrià, Catedrático de Informática, Universitat de BarcelonaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1273882019-11-26T20:40:29Z2019-11-26T20:40:29ZLos riesgos de investigar con datos personales<figure><img src="https://images.theconversation.com/files/303211/original/file-20191122-74580-cbx0qz.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C6000%2C3997&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/security-lock-on-computer-circuit-board-242756941?src=8cbd6c19-b2e8-41e4-b78a-e139a0613545-1-13&studio=1">Shutterstock/wk1003mike</a></span></figcaption></figure><p>Investigar con datos personales exige un compromiso con el cumplimiento de la legalidad. Responde a un imperativo ético: si investigamos con este tipo de información debemos, ante todo, garantizar y proteger los derechos de los implicados. Por desgracia, esto no siempre se cumple. La experiencia profesional adquirida en la gestión del cumplimiento del Reglamento General de Protección de Datos, y la de <a href="https://www.uv.es/uvweb/servei-investigacio/ca/grups-investigacio/grup-1285949714098.html?p2=GIUV2013-013">nuestro equipo de investigación</a> en proyectos de investigación como <a href="https://www.bigmedilytics.eu/">BigMedilytics</a> proporcionan un par de valiosas lecciones.</p>
<p>En primer lugar, el cumplimiento de estas normas en la investigación se percibe como parte de la carga burocrática que los investigadores soportan. En general no existe un conocimiento ético y formativo previo. </p>
<p>La <a href="https://www.wma.net/es/policies-post/declaracion-de-helsinki-de-la-amm-principios-eticos-para-las-investigaciones-medicas-en-seres-humanos/">Declaración de Helsinki</a> inspira gran parte de los principios de estas investigaciones, sobre todo en el área de ciencias de la salud. Sin embargo, no es un marco suficiente para garantizar el derecho fundamental a la protección de datos.</p>
<p>Para muchos investigadores la “protección de datos” no es otra cosa que un impreso de consentimiento informado que descargan de la web del comité de ética de la investigación. Este no es más que una parte del cumplimiento exigible y, aunque al lector le resulte paradójico, debo afirmar que es la menos relevante en términos materiales. </p>
<p>Además, genera una cultura de copiar y pegar que, por alguna extraña razón, convence a algunas personas de que basta con el impreso. Por eso algunos, no familiarizados con la investigación, creen honestamente estar cumpliendo las normas. Implica un volumen desconocido de estudios en los que alguien, con tan buena voluntad como escaso acierto, vulnera los derechos de menores, ancianos y enfermos.</p>
<h2>No basta con saber que la norma existe</h2>
<p>El resultado es que un colectivo investigador escasamente formado confunde la parte con el todo e incumple los deberes de análisis de riesgos, evaluación de impacto relativa a la protección de datos, adopción de medidas de seguridad, declaración y registro de actividades de tratamiento. Todo en aras de facilitar la burocracia.</p>
<p>No es el único problema en el enfoque. Recuerdo la intervención de un delegado de protección de datos en una jornada sobre la materia en la que lamentaba que los investigadores no tengan en cuenta la normativa. Del mismo modo, se tiene constancia de acciones de estos profesionales consistentes en comunicar a los investigadores que la norma existe. Para ello se emplean discursos meramente formales, propios de una conferencia, a estudiantes de grado en una Facultad de Derecho.</p>
<p>Ambas actitudes constituyen la manifestación del trágico error de pensar que cumplir con el Reglamento General de Protección de Datos es problema de los investigadores. Esta es la manifestación más patológica y nociva para el cumplimiento normativo. Convencer a investigadores de primer nivel con un discurso vacío y alejado de la realidad, desconocedor de los más elementales procesos de investigación científica, resulta contraproducente y genera desafección e impotencia.</p>
<h2>Hace falta más inversión</h2>
<p>La garantía de los derechos fundamentales exige inversión. Y la que se refiere al Reglamento General de Protección de Datos exige procesos de gestión y la existencia de personas que presten soporte al investigador. </p>
<p>En términos de costes e inversión, descargar el peso de la protección de datos en el investigador principal, o en el equipo de investigación, constituye un serio error de concepto en los modelos de gestión de proyectos.</p>
<p>Para empezar, presupone que la garantía de la privacidad debe realizarse a coste cero. Esto es ridículo. Cualquier empresa privada que investigue en la Unión Europea dispone de las personas que soportan este área. Por otra parte, el coste de oportunidad derivado de trasladar presión al investigador con materias alejadas de su área, angustia y quebraderos de cabeza, resulta incalculable.</p>
<p>Nuestras universidades no solo deben liderar la investigación, deben hacerlo con garantías. La potencia de análisis que proporciona la computación distribuida en clústeres, mediante el soporte de proveedores en la nube, los programas de analítica de datos y la construcción de redes neuronales ofrecen grandes oportunidades para investigar al servicio del bien común.</p>
<p>El legislador europeo (y español) ha hecho sus deberes. Las aportaciones que hicimos los investigadores durante la exposición pública del Proyecto de Ley Orgánica de Protección de Datos <a href="http://www.congreso.es/wc/wc/audiovisualdetalledisponible?codSesion=38&codOrgano=303&fechaSesion=15/03/2018&mp4=mp4&idLegislaturaElegida=12">en sede parlamentaria</a> fueron atendidas. Primero, por <a href="https://www.aepd.es/media/informes/2018-0046-investigacion-biomedica.pdf">un informe de la Agencia Española de Protección de Datos</a>, y después mediante la tramitación de las enmiendas promovidas por el Partido Socialista. </p>
<p>No todo son buenas noticias. El regulador y el legislador fueron incapaces de entender que la investigación con datos, el vulgarmente llamado <em>big data</em>, desborda el área de investigación en salud al que se refiere la <a href="https://www.boe.es/buscar/act.php?id=BOE-A-2018-16673&p=20190625&tn=1#da-17">disposición adicional decimoséptima de la Ley</a>.</p>
<p>En cualquier caso, disponemos de un ecosistema normativo favorable a la investigación, pero hay que aplicarlo. Ello exige la adopción de políticas de gestión responsable de los procesos de investigación. <a href="http://revistes.eapc.gencat.cat/index.php/rcdp/article/view/10.2436-rcdp.i58.2019.3307/n58-valero-es.pdf">Defiendo</a> que resulta crucial la integración de las normas, no solo de la protección de datos, en el diseño de la investigación desde la génesis de la idea investigadora. </p>
<p>Para esto es necesario un modelo de gestión estructurado y protocolizado. En él debería depositar su confianza el investigador, sabiendo que al otro lado hay personas que serán su soporte y guía.</p>
<p>La universidad y los investigadores deben entender que la protección de datos no solo evita riesgos reputacionales y sanciones de las autoridades de protección de datos. Constituye un valor ético, un compromiso con la calidad de la investigación que comporta una ventaja competitiva y de prestigio en la sociedad de la transformación digital.</p><img src="https://counter.theconversation.com/content/127388/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ricard Martínez Martínez, colabora como Data Protection Officcer del Proyecto BigMedilytics (Big Data for Medical Analytics) y dirige la la Cátedra de Privacidad y Transformación Digital, actividad sin ánimo de lucro financiada por Microsoft. </span></em></p>La protección de datos es algo más que un impreso de consentimiento. Los investigadores deben entender que se trata de un compromiso ético de valor incalculable.Ricard Martínez Martínez, Profesor de Derecho Constitucional. Director de la Cátedra de Privacidad y Transformación Digital., Universitat de ValènciaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1245132019-10-06T19:54:14Z2019-10-06T19:54:14ZColonialismo digital: por qué hay países que reclaman el control sobre los datos de sus ciudadanos<figure><img src="https://images.theconversation.com/files/295223/original/file-20191002-49346-1xysxvr.jpg?ixlib=rb-1.1.0&rect=1%2C0%2C995%2C664&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/download/confirm/426983428?src=2Q7JrXi3WCG4DWKa7nAt5w-1-5&size=medium_jpg">knyazevfoto/Shutterstock</a></span></figcaption></figure><p>El almacenamiento de datos global se encuentra en punto muerto. Como broche a la cumbre del G20 celebrada en junio en Japón, algunos países en vías de desarrollo <a href="https://www.livemint.com/news/world/india-boycotts-osaka-track-at-g20-summit-1561897592466.html">se negaron a firmar</a> la declaración internacional sobre los flujos de datos, denominada Huella de Osaka. Uno de los motivos por los que países como India, Indonesia y Sudáfrica boicotearon la declaración fue que no pudieron hacer valer sus intereses en el citado documento.</p>
<p>La declaración, que lleva la firma de otros 50 signatarios, ha quedado en una promesa para reanudar las negociaciones en el futuro, pero el planteamiento de estos países representa la lucha de parte de las naciones por reivindicar su soberanía sobre los datos generados por sus propios ciudadanos.</p>
<p>No hace mucho, en el oscuro año 2016, se decía que los datos eran el nuevo petróleo. Aunque la metáfora <a href="https://towardsdatascience.com/data-is-not-the-new-oil-721f5109851b?gi=e1c29fb12db7">no tuvo demasiado recorrido</a>, resulta de utilidad para entender la economía digital global en la actualidad. A medida que las negociaciones por los flujos de datos se intensifican, la comparación con el petróleo ayuda a explicar los procesos económicos que envuelven a la llamada “localización de datos”, es decir, el empeño por que la información del ciudadano no salga de su propio país.</p>
<p>De la misma manera que las naciones productoras de petróleo apostaron por las refinerías para revalorizar el crudo, los gobiernos pretenden que las grandes compañías tecnológicas construyan los centros de procesamiento de datos en sus territorios. La nube, que concede a la industria tecnológica mundial el poder del que goza, está localizada en gigantescos centros de datos en el norte de Europa y en las costas de EE. UU. Sin embargo, las empresas tecnológicas norteamericanas están posando su mirada sobre los mercados en expansión del sur global, ya que el acceso a internet de la población joven de estos países es cada vez más habitual.</p>
<h2>Acusaciones de “imperalismo digital”</h2>
<p>Podemos tomar como ejemplo el caso de Facebook. Aunque India es el país que tiene el mayor número de usuarios en la red social, si observamos la <a href="https://www.datacenters.com/providers/facebook">localización de los 15 centros de procesamiento de datos de Facebook</a> veremos que 10 se encuentran en Norteamérica, cuatro en Europa y solo uno en Asia, más concretamente en Singapur. </p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=525&fit=crop&dpr=1 600w, https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=525&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=525&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=660&fit=crop&dpr=1 754w, https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=660&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/294172/original/file-20190925-51405-fwjrkd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=660&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Países con más usuarios de Facebook en 2019.</span>
<span class="attribution"><a class="source" href="https://www.statista.com/statistics/268136/top-15-countries-based-on-number-of-facebook-users/">We Are Social, DataReportal, Hootsuite, Facebook via Statista</a></span>
</figcaption>
</figure>
<p>Esta incoherencia entre las nuevas fuentes de datos y la localización de los centros ha provocado que países como India hablen de “<a href="https://www.livemint.com/Companies/QMZDxbCufK3O2dJE4xccyI/Indias-data-must-be-controlled-by-Indians-not-by-global-co.html">colonización de la información</a>” y <a href="https://www.aljazeera.com/indepth/opinion/digital-colonialism-threatening-global-south-190129140828809.html">“colonialismo digital”</a>.</p>
<p>Los países que pertenecen al sur global argumentan desde un punto de vista económico que la ubicación de los centros de datos en sus territorios supondría un impulso para la industrialización digital, ya que generaría ventajas competitivas para las compañías locales en la nube y desarrollaría vínculos con otros ámbitos del sector de las tecnologías de la información.</p>
<p>Son varios los <a href="http://siba-ese.unisalento.it/index.php/paco/article/view/19553/16635">países</a> que han probado diferentes regulaciones en lo que al almacenamiento local de datos se refiere. Australia, por ejemplo, solo abarca los datos relacionados con la salud. Corea del Sur, por su parte, requiere la autorización de la persona relacionada con la información para poder transmitirla más allá de sus fronteras. Francia continúa con su proyecto de infraestructura de datos, apodado <em>le cloud souverain</em> (la nube soberana), a pesar del <a href="https://www.rudebaguette.com/2019/08/cloudwatt-orange-cloud-souverain-fin/">cierre de algunos de los negocios</a> sobre los que se asentó la idea en un principio. Las leyes más exhaustivas las encontramos en China y Rusia, donde la localización comprende múltiples sectores que recogen todo tipo de información personal.</p>
<p>Los países que más se podrían beneficiar de una regulación justa son India e Indonesia, ya que son los que menos inversión en infraestructura reciben por parte de los gigantes tecnológicos en relación al número de usuarios y a la creciente presencia <em>online</em> de su población.</p>
<h2>Los economistas no lo ponen fácil</h2>
<p>Los defensores de la localización de los datos esgrimen la dependencia de los países en vías de desarrollo de la infraestructura digital extranjera y el desigual reparto de los beneficios económicos generados. Los partidarios sueñan con utilizar la localización de datos para forzar a las compañías tecnológicas a convertirse en entidades permanentes en sus territorios para aumentar progresivamente la tasa impositiva sobre ellas.</p>
<p>Los detractores, por su parte, apuntan al elevado coste que los servidores supondrían no solo para las grandes compañías, sino también para las empresas emergentes que los gobiernos dicen querer impulsar. Además, argumentan que las regulaciones sobre la localización interfieren con la innovación a nivel global, que su aplicación es complicada y que ignoran los requisitos técnicos de los centros de procesamiento de datos: proximidad a lo que denominan la “columna vertebral de internet”, es decir, las redes de fibra óptica; un suministro eléctrico estable y sistemas de refrigeración de aire y agua para evitar el sobrecalentamiento de los servidores.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/294335/original/file-20190926-51438-1lah43t.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">¿Hasta qué punto merece la pena hacer un esfuerzo por los datos?</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/image-illustration/artistic-blurred-binary-numbers-data-travel-544111558?src=Bjwb083uwwYnsgSFI2-Huw-1-2">Robsonphoto/Shutterstock</a></span>
</figcaption>
</figure>
<p>Las tentativas de medir el impacto económico de la localización son extremadamente parciales. <a href="https://www.econstor.eu/handle/10419/174726">El estudio más citado</a> en 2014 empleó una metodología opaca y fue desarrollado por el <a href="https://ecipe.org/">Centro Europeo de Economía Política Internacional</a>, un laboratorio de ideas de libre comercio con sede en Bruselas, parte de cuyos fondos proceden de <a href="https://thecorrespondent.com/3884/big-business-orders-its-pro-ttip-arguments-from-these-think-tanks/179184456-59671a10">negocios multinacionales</a> desconocidos. No resulta sorprendente, pues, que encontrase pérdidas importantes en países que consideraban ofrecer sus territorios a las grandes empresas. </p>
<p>Con todo, <a href="https://baxtel.com/data-center/facebook/files/facebook_data_centers_2018">un estudio de 2018</a> encargado por Facebook reveló que, al establecer sus centros de procesamiento de datos en EE. UU., las tecnológicas han creado decenas de miles de empleos, han propiciado la inversión en energías renovables y han supuesto una inyección de 5.800 millones de dólares para el PIB del país norteamericano en solo seis años.</p>
<p>Al igual que ocurre con los argumentos a favor y en contra del libre comercio, adoptar una postura dogmática a favor o en contra de la localización oculta otras complejidades sobre la materia. </p>
<p>Los costes y beneficios económicos dependen, entre otros factores, del tipo de datos que se almacenan, si son un duplicado o la única copia existente y del nivel de apoyo por parte del gobierno a la hora de conceder ayudas para la creación y el mantenimiento de infraestructuras.</p>
<p>India se ha mostrado como una de las principales defensoras de la localización, sobre la que ha llegado a presentar su propia regulación, que considera <a href="https://meity.gov.in/writereaddata/files/Data_Protection_Committee_Report.pdf">“un modelo para el desarrollo”</a>. No obstante, India se encuentra en una posición desahogada gracias a que tiene una relativamente avanzada industrialización digital y dispone de mano de obra técnica.</p>
<p>Indonesia, otra de las economías emergentes cuya población goza de amplio acceso a internet, ha vacilado respecto a su legislación sobre localización, ya que el gobierno de EE. UU. ha amenazado al del país asiático con <a href="https://inet.detik.com/law-and-policy/d-4318420/revisi-pp-pste-diduga-sarat-tekanan-asing">la retirada de los acuerdos preferenciales sobre otros bienes y servicios</a> si seguía adelante con las regulaciones restrictivas.</p>
<h2>¿Qué hacen los gobiernos con nuestros datos?</h2>
<p>Aunque las implicaciones económicas de los datos personales a escala internacional puedan asemejarse a la producción petrolífera en algunas dinámicas, la información se diferencia del crudo principalmente en que tiene una doble vertiente: no solo provee de valor monetario a los negocios, sino que también confiere a los gobiernos la oportunidad de desarrollar sistemas de vigilancia. </p>
<p>Algunos de los activistas por los derechos sociales con los que me he reunido como parte de mi investigación en India e Indonesia me trasladaron su escepticismo hacia las narrativas de sus propios gobiernos acerca del colonialismo de datos. Sin embargo, se mostraban preocupados por el cada vez más frecuente acceso a información personal sensible que realizan los gobiernos gracias a la localización.</p>
<h2>Soberanía personal</h2>
<p>Las grandes corporaciones y los estados no son los únicos actores en la puja por la “soberanía de los datos”. Los desarrolladores de tecnologías podrían estar a las puertas de encontrar la manera de defender el derecho de cada individuo a controlar su propia información personal con plataformas como <a href="http://www.databoxproject.uk/">databox</a>, un espacio que permite que cada usuario tenga algo parecido a su propio servidor personal.</p>
<p>Este tipo de tecnologías aún se encuentran en fase de desarrollo, pero están surgiendo cada vez más <a href="https://www.decodeproject.eu/pilots">proyectos</a> (la mayoría de ellos en Europa) que no solo conceden a la gente un mayor control sobre sus datos, sino que también persiguen la utilidad social en lugar del beneficio económico. Quizá este tipo de experimentos logre hacerse un hueco junto a los movimientos que los estados y las grandes compañías están llevando a cabo.</p><img src="https://counter.theconversation.com/content/124513/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jacqueline Hicks recibe fondos de Horizonte 2020 de la Unión Europea.</span></em></p>¿Pueden los países en desarrollo enriquecerse con datos?Jacqueline Hicks, Marie-Curie Skłodowska Fellow, University of NottinghamLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1103692019-01-28T21:26:27Z2019-01-28T21:26:27Z¿Por qué siempre mencionamos a Orwell cuando hablamos de vigilancia?<figure><img src="https://images.theconversation.com/files/255548/original/file-20190125-108338-qjhdwh.jpg?ixlib=rb-1.1.0&rect=17%2C0%2C2627%2C1832&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">A pesar de todas las distopías escritas, '1984' sigue siendo la referencia más utilizada.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/V4mNfkDmiX4">Arvin Febry / Unsplash</a></span></figcaption></figure><p>Hace casi setenta años murió George Orwell, autor de obras como <em>Homenaje a Cataluña</em> (1938), <em>Rebelión en la Granja</em> (1945) o <em>1984</em>, referencia ineludible cuando hablamos de la intromisión de la tecnología en la esfera privada del individuo. </p>
<p>A pesar del tiempo transcurrido desde la publicación del libro (el 8 de junio de 1949), la temida maquinaria de su Gran Hermano, ese ojo único y omnipresente que no deja ningún resquicio al disfrute de la intimidad, sigue impregnando todas las discusiones contemporáneas sobre vigilancia. Y es harto complicado saltarse la comparación. Aún cuando muchos académicos reniegan de la visión claustrofóbica que recrea la fábula, la referencia permanece ahí, impertérrita. </p>
<h2>Vuelta a <em>1984</em></h2>
<p>Comencemos por el género. La novela de Orwell es una “distopía”, también denominada “antiutopía” o “cacotopía”, es decir, un relato hiperbólico en el que se delinean los trazos de una sociedad hipotética indeseable en sí misma. Es la cara opuesta de la “utopía”, <a href="https://es.wikipedia.org/wiki/Utop%C3%ADa_(Tom%C3%A1s_Moro)">el ideal irrealizable de Tomás Moro</a>, y lo es porque la degradación de los valores éticos provoca la alienación moral de lo individual y, por tanto, la decadencia del ser humano. </p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=835&fit=crop&dpr=1 600w, https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=835&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=835&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1050&fit=crop&dpr=1 754w, https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1050&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/255582/original/file-20190125-108351-7zqlb2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1050&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Fotografía de George Orwell.</span>
<span class="attribution"><a class="source" href="https://fr.m.wikipedia.org/wiki/Fichier:George-orwell-BBC.jpg">BBC / Wikimedia Commons</a></span>
</figcaption>
</figure>
<p>Ahora bien, cabe recordar que <em>1984</em> no es <em>rara avis</em> en su género. Mucho antes de su publicación encontramos relatos de similares características, como, por ejemplo,<a href="https://es.wikipedia.org/wiki/El_tal%C3%B3n_de_hierro"> <em>El talón de hierro</em></a> de Jack London, publicada en 1908, y muy especialmente, <a href="https://es.wikipedia.org/wiki/Nosotros_(novela)"><em>Nosotros</em></a> de Yevgueni Zamiatin, texto de 1924 del que Orwell toma prestados numerosos ingredientes para su escrito. </p>
<p>Tampoco es una obra única en su contexto histórico, baste citar las célebres <a href="https://es.wikipedia.org/wiki/Un_mundo_feliz"><em>Un mundo feliz</em></a> de Aldous Huxley y <a href="https://es.wikipedia.org/wiki/Fahrenheit_451"><em>Fahrenheit 451</em></a> de Ray Bradbury, entre otras. ¿Por qué seguimos pensando entonces que quien nos observa es el Gran Hermano?</p>
<p>En primer lugar, porque existe una íntima relación entre el estudio de la denominada “sociedad de la vigilancia” desde el ámbito académico y el escritor británico. <a href="https://journals.sagepub.com/doi/abs/10.1177/000271627541700161">El nexo común parte del investigador James Rule</a>, quien apela directamente a la necesidad de retomar la obra de Orwell como visión certera de las consecuencias negativas de un avance tecnológico descontrolado. </p>
<p>Posteriormente, <a href="http://politybooks.com/bookdetail/?isbn=9780745613420">Christopher Dandeker continuará esta senda en 1990</a>. Y a mediados de los noventa, coincidiendo con el despunte de Internet como modelo organizativo, la imagen del Gran Hermano es ya una alusión recurrente, como sinónimo del control estatal de las bases de datos, primero, y de su monetización por parte de empresas privadas, posteriormente. </p>
<p><a href="https://www.jstor.org/stable/10.5749/j.ctttsqw8">David Lyon</a>, <a href="https://thenewpress.com/books/end-of-privacy">Reg Whitaker</a> o los escritos sobre el monitoreo social de <a href="http://web.mit.edu/gtmarx/www/garyhome.html">Gary T. Marx</a> son sólo algunos de los muchos ejemplos que encontramos al respecto. </p>
<p>Ninguno de ellos reniega de los beneficios del desarrollo tecnológico. Pero sí admiten que uno de los mayores desafíos que plantean las tecnologías digitales es la complejidad de delimitar un área reservada del ser humano que implique qué debe quedar protegido y qué se considera intromisión. </p>
<figure class="align-left ">
<img alt="" src="https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=595&fit=crop&dpr=1 600w, https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=595&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=595&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=748&fit=crop&dpr=1 754w, https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=748&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/255554/original/file-20190125-108342-l8sy05.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=748&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Mural del Gran Hermano, Belfast.</span>
<span class="attribution"><a class="source" href="https://www.geograph.ie/photo/2697168">Albert Bridge</a></span>
</figcaption>
</figure>
<p>En el pasado, los individuos daban por sentado que sus movimientos del día a día no eran ni monitoreados, ni catalogados, por lo que enlazaban sus actividades cotidianas en el más puro de los anonimatos. En las sociedades postmodernas, sin embargo, la tecnología permite obtener, procesar, analizar y agregar cantidades ingentes de información sobre una persona concreta. </p>
<p>Del mismo modo, en <em>1984</em>, los ciudadanos, habitantes de una región imaginaria llamada Oceanía, no disponen de ningún espacio libre en el que desarrollar su vida privada fuera de la auscultación y la intromisión del estado totalitario, el Gran Hermano. </p>
<h2>Nuestro <em>big data</em></h2>
<p>Y no sólo físicamente: dado que el poder único atesora una base de datos masiva y centralizada en la que se almacena todo lo que puede saberse de los individuos, sus actividades están monitorizadas desde antes incluso de que tengan lugar, haciendo uso de una ubicuidad e invisibilidad que subraya la inevitabilidad del control. ¿Acaso no recuerda esto al perfilado y la capacidad predictiva de las herramientas digitales? </p>
<p>La exigencia de información provoca las más diversas reacciones entre los conciudadanos de Oceanía quienes se debaten entre el conformismo, la asunción de los preceptos impuestos o, en ocasiones, la resistencia. No obstante, esta adquiere un aire más romántico que efectivo. </p>
<p>Igualmente, nosotros podemos renegar de herramientas como redes sociales, <em>apps</em> o servicios de mensajería instantánea, pero, en la práctica, basta con que uno de nuestros contactos tenga nuestro correo electrónico para formar parte de esa inmensa base de datos que es Internet.</p>
<h2>Los opuestos atraen</h2>
<p>Pero si hay algo que enlaza definitivamente <em>1984</em> con la época actual es la sombra de lo paradójico. Orwell juega con oposiciones conceptuales para mostrar la cara más perversa de la tiranía: el Ministerio de la Paz desata la guerra, el Ministerio del Amor se ocupa de la desesperación y ahoga la disidencia, el Ministerio de la Verdad versiona los hechos pasados para legitimar el presente y la Policía del Pensamiento es un arma para imponer los dogmas. </p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/urrqW4_3IBg?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Tráiler de <em>1984</em> (Michael Radford, 1984).</span></figcaption>
</figure>
<p>Estas mismas contradicciones se asoman al universo digital. Nos preocupamos por nuestra intimidad, toda vez que cedemos nuestros datos arrastrados por la seducción de las aplicaciones digitales. Si intentamos de manera consciente salvaguardar nuestras informaciones, topamos con políticas de privacidad obtusas en las que lo único que se torna transparente somos nosotros mismos. </p>
<p>Y podríamos seguir hablando del soterramiento de heterogeneidades, del silencio de todo aquello que nunca será <em>trending topic</em> o que no alcanzará el seguimiento necesario para ser tenido en cuenta por los algoritmos que distribuyen información. Pero este es ya otro debate que no tiene que ver con nuestros datos personales… </p>
<p>O tal vez sí, dado que las informaciones privadas que desplegamos en nuestros perfiles pueden provocar que se privilegien unas informaciones frente a otras. </p>
<p>Son muchas más las razones que revisten de valor esta parábola de las sociedades lastradas por la opresión y el determinismo tecnológico. Salvando las diferencias con la sociedad contemporánea, así como la tendencia a la exageración inherente a cualquier distopía y el maniqueísmo que hace más atractiva la ficción, razones no le faltaban a James Rule para recurrir a su alto contenido ilustrativo.</p>
<p>Pero volvamos al presente. Estamos en 2019 y el mito (<a href="https://www.wikiestudiantes.org/el-mito-para-roland-barthes/">entiéndase aquí como “mito” la definición de Roland Barthes</a>) del Gran Hermano sigue embebido en todas y cada una de nuestras conversaciones sobre protección de la intimidad, conformando una alegoría ampliamente identificable por todos. </p>
<p>Aunque, tal vez, lo más curioso sea que dicha metáfora deja entrever uno de los patrones de comportamiento más ilógicos del ser humano: nuestra habilidad para anticipar las posibilidades tecnológicas del futuro y permanecer inertes cuando vislumbramos sus consecuencias indeseadas.</p><img src="https://counter.theconversation.com/content/110369/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Amaya Noain Sánchez no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>Hoy en día, la falsa protección que tenemos ante la cesión de datos y nuestra propia actitud ante estos hechos se asemejan cada vez más al mundo distópico de ‘1984’.Amaya Noain Sánchez, Profesora Máster de Protección de Datos, UNIR - Universidad Internacional de La Rioja Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1081372018-12-20T22:01:37Z2018-12-20T22:01:37ZLa protección de datos, un asunto profundamente humano<figure><img src="https://images.theconversation.com/files/249927/original/file-20181211-76980-1pb3sem.jpg?ixlib=rb-1.1.0&rect=9%2C0%2C6129%2C3994&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-photo/hand-businesswoman-wearing-white-shirt-using-1253963611">Shutterstock / ImageFlow</a></span></figcaption></figure><p>“Los ordenadores son inútiles. Solo pueden darnos respuestas”. Esta reflexión de Pablo Picasso pronunciada en 1968 está de plena actualidad y refleja el profundo debate que estamos presenciando sobre el desarrollo de la tecnología, su alcance y el posible impacto para la sociedad. Y señala un punto de partida que puede parecer sencillo: la innovación en sí es neutra, depende del fin al que se destine. O, en palabras de Picasso, depende de las preguntas que le hagamos.</p>
<p>Los avances tecnológicos, como la inteligencia artificial, la robótica, la nanotecnología, o las posibilidades que brinda el tratamiento a gran escala de la información son un reflejo de esta cuestión y ponen de relieve que no todo lo tecnológicamente posible es legal. Y no todo lo que es legal es necesariamente ético.</p>
<p>A lo largo de nuestra historia, las implicaciones éticas, sociales y legales de la innovación han sido el hilo conductor en todo desarrollo tecnológico. Los debates generados en su día con la invención de la pólvora y la dinamita están sucediendo ahora con la gestión de los datos, sus beneficios y sus posibles consecuencias.</p>
<h2>No basta con cumplir la ley</h2>
<p>Nos encontramos en un momento en el que no es suficiente cumplir con la letra de <a href="https://www.boe.es/buscar/doc.php?id=BOE-A-2018-16673">la ley</a> y demostrarlo, el debate trasciende a la vertiente ética, filosófica y moral. Tecnológicamente es casi todo posible y tenemos la responsabilidad de plantearnos hasta dónde queremos llegar como sociedad.</p>
<p>Vivimos en una sociedad conectada y los datos que aportamos, que generamos y que se infieren se han convertido en un activo económico importante. Además, el concepto de privacidad ha cambiado, y también los propios usuarios comparten de manera proactiva información en las redes sociales.</p>
<p>Teniendo en cuenta la ingente cantidad de datos que generamos en cada movimiento digital, y las capacidades de recolección, uso y la capa de inteligencia que se le puede introducir, es posible conocer y entender a los ciudadanos y llevar a cabo una gestión mucho más eficiente de los servicios, segmentar mensajes, y ofrecer lo que necesita en el momento en que lo necesita.</p>
<p>El tratamiento de los datos ayuda a solucionar problemas de la sociedad, y es beneficioso para ciudadanos, empresas y gobiernos. Pero también el tratamiento de la información personal puede tener consecuencias indeseadas: puede influir en el comportamiento humano y en su libertad individual. Puede afectar en aspectos como la decisión de compra de un producto, hasta marcar el destino de un voto.</p>
<p>Mediante el uso de datos, la creación de patrones, la neurociencia y la inteligencia aplicada a estos perfiles, se pueden tomar decisiones sobre las personas sin que estén informadas de tal aspecto, y, por tanto, limitando su libertad de decisión.</p>
<h2>Futuro distópico</h2>
<p>Las previsiones de malos usos presentan un futuro distópico. Lo podemos ver en casos como el <a href="https://www.efe.com/efe/espana/portada/china-pone-nota-a-sus-buenos-y-malos-ciudadanos/10010-3801769">desarrollo del sistema de puntuación de los ciudadanos en China</a>, en la <a href="https://www.efe.com/efe/espana/portada/india-digitaliza-a-mas-de-mil-millones-personas-entre-la-hazana-y-el-temor/10010-2912665">identificación biométrica de la India</a> o en las capacidades planteadas por empresas como <a href="https://es.wikipedia.org/wiki/Cambridge_Analytica">Cambridge Analytics</a>.</p>
<p>Se pueden tomar decisiones respecto a las personas basadas únicamente en algoritmos, un aspecto que debe estar abierto a una defensa o impugnación. La tendencia de reemplazar enfoque de riesgo potencial por riesgo individualizado desafía la premisa del contrato social que conformamos como sociedad. Expertos han alertado sobre el uso de algoritmos que pueden estar sesgados y que ya toman decisiones <a href="https://www.technologyreview.es/s/9610/google-advierte-el-verdadero-peligro-de-la-ia-no-son-los-robots-asesinos-sino-los-algoritmos?_ga=2.180570592.690192898.1543855212-419410505.1543855212">sobre la salud, los seguros y las libertades de las personas</a>. Unos algoritmos sobre los cuales los individuos son clasificados, evaluados, premiados o castigados.</p>
<p>Las posibilidades de tratamiento de la información no deben impedir que las personas desarrollen su personalidad sin injerencias y que ejerzan sus derechos y libertades. La privacidad y la protección de datos son cada vez más importantes para la protección de la dignidad humana. Desde una perspectiva técnica, legal y ética.</p>
<h2>Un derecho fundamental</h2>
<p>En Europa el derecho a la protección de datos es un derecho fundamental, reconocido en los <a href="https://www.boe.es/doue/2010/083/Z00013-00046.pdf">Tratados de la Unión Europea</a>, en la <a href="http://www.europarl.europa.eu/charter/pdf/text_es.pdf">Carta de los Derechos Fundamentales de la UE</a> y, de forma más específica, en el <a href="https://ec.europa.eu/commission/priorities/justice-and-fundamental-rights/data-protection/2018-reform-eu-data-protection-rules_es">Reglamento General de Protección de Datos</a>, de plena aplicación desde mayo de 2018. Un texto complejo y prescriptivo que viene a adaptar las viejas normas de protección de datos del año 1995 a la era digital.</p>
<p>El Reglamento regula específicamente la creación de perfiles y lo define como el análisis o la predicción de aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos y establece que las personas tendrán derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos sobre él o le afecte significativamente de modo similar.</p>
<p>La ley exige además que se informe al interesado de la existencia del tratamiento de datos y de las consecuencias de dicha elaboración, debiendo facilitar cuanta información sea necesaria para garantizar que el tratamiento es leal y transparente. Todo interesado debe, por tanto, tener el derecho a conocer los fines para los que se tratan los datos personales, el plazo del tratamiento, sus destinatarios e incluso la lógica del tratamiento. El Reglamento, por tanto, refuerza la información que han de recibir los usuarios cuando se vayan a tratar sus datos y, por las consecuencias del tratamiento, de forma específica cuando se vayan a crear perfiles. De la inclusión de este artículo se deriva una mayor capacidad de elección.</p>
<p>Por tanto, la elaboración de perfiles, cuando produzca efectos jurídicos significativos solo se puede llevar a cabo bajo una serie de parámetros y de garantías. El Grupo de autoridades de protección de datos europeas reunidas en el grupo de trabajo del artículo 29 establece que esos efectos jurídicos se dan cuando tiene lugar un tratamiento que tenga un impacto en los derechos, como el impedimento a entrar en un país, votar en unas elecciones o emprender acciones legales. </p>
<p>Según las autoridades europeas, en muchos casos, mostrar publicidad durante la navegación basada en un perfil no tiene un efecto significativo en las personas. Sí lo puede tener, por ejemplo, manejar, sesgar y dirigir las noticias a los individuos basadas únicamente en algoritmos.</p>
<h2>Limitaciones y ética</h2>
<p>Pero la ley tiene sus limitaciones. Por esta razón la dimensión ética tiene un papel tan importante. La ética tiene un alcance mucho más profundo de lo que se pueda recoger en conceptos jurídicos.</p>
<p>El Supervisor Europeo de Protección de Datos ha creado un <a href="https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_en.pdf?_ga=2.181176800.690192898.1543855212-419410505.1543855212">Grupo Ético</a> en el que analizan la dimensión ética de la protección de datos y se plantean cuestiones como el significado y las consecuencias de las interacciones humanas con las máquinas, el poder del mercado para definir lo que significa ser humano, el dilema de la multitud de elecciones proporcionadas por un ecosistema digital controlado por nuevas formas de automatización y señala que el nuevo ecosistema desafía los principios europeos de autonomía, libertad, solidaridad, igualdad, democracia y confianza. En palabras de este Grupo Ético, la protección de datos no es un asunto técnico o legal, es un asunto profundamente humano. </p>
<p>En el tratamiento de la información, de las grandes capacidades de datos y en la creación de perfiles deberían conjugarse tres elementos. Por un lado, un tratamiento ético de los datos, integrado en la estructura de la organización, en todo el ciclo de vida del dato y en toda la cadena de valor y que va a complementar todos aquellos aspectos a los que la ley no llega.</p>
<p>Por otro lado, trabajar en la transparencia nos convertirá en ciudadanos informados, un hecho que traerá consigo el tercer elemento: la capacidad de elección.</p>
<p>En esas preguntas que planteaba Picasso es fundamental tener en cuenta la vertiente ética, ya que el desarrollo no puede marcar el progreso de los valores y los derechos de una sociedad. La innovación y la ética son compatibles, y suponen una oportunidad de hacer de nosotros mejores ciudadanos y mejor sociedad.</p>
<hr>
<p><em>La versión original de este artículo <a href="https://telos.fundaciontelefonica.com/telos-109-regulacion-paula-ortiz-la-proteccion-de-datos-un-asunto-profundamente-humano/">fue publicada</a> en la <a href="https://telos.fundaciontelefonica.com/">Revista Telos</a>, de <a href="https://www.fundaciontelefonica.com/">Fundación Telefónica</a>.</em></p>
<hr><img src="https://counter.theconversation.com/content/108137/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Paula Ortiz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.</span></em></p>El Supervisor Europeo de Protección de Datos ha creado un Grupo Ético en el que se plantea el significado y las consecuencias de las interacciones humanas con las máquinas para definir lo que significa ser humano.Paula Ortiz, profesora de Digital Law, IE UniversityLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1079872018-12-03T21:58:50Z2018-12-03T21:58:50ZNueva Ley de Protección de Datos: ¿solución o nuevo problema?<figure><img src="https://images.theconversation.com/files/248484/original/file-20181203-194947-td7s6k.jpg?ixlib=rb-1.1.0&rect=26%2C0%2C5964%2C3745&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/es/image-illustration/eyes-binary-tunnel-91783235">Shutterstock / Bruce Rolff</a></span></figcaption></figure><p>El pasado 21 de noviembre el Senado <a href="http://www.senado.es/legis12/publicaciones/pdf/senado/bocg/BOCG_D_12_289_2209.PDF">dio luz verde al texto final</a> de la nueva Ley Orgánica de Protección de Datos Personales y Garantía de Derechos Digitales (LOPD). Además de que la norma llega con retraso, después de casi un año de debate, también trae consigo la polémica. </p>
<p>Las mayores críticas que está recibiendo la ley se refieren al novedoso tratamiento que reciben los partidos políticos a través de un nuevo artículo que no estaba en el proyecto inicial. </p>
<p>La disposición final segunda de la LOPD, añade un artículo (58 bis) a la Ley Orgánica del Régimen Electoral General (<a href="http://www.juntaelectoralcentral.es/cs/jec/loreg/contenido">LOREG</a>) introduciendo un tratamiento especial para los partidos políticos, que quedan legitimados para recoger datos sobre opiniones políticas de los ciudadanos “obtenidos en páginas web y otras fuentes de acceso público para la realización de actividades políticas durante el periodo electoral”.</p>
<p>La norma fue introducida con muy poco tiempo de debate y maduración en los círculos de interés, y prueba de su unanimidad es que la ley fue aprobada con un 93% de apoyo parlamentario. ¿Por qué? Porque todos se benefician de la medida.</p>
<h2>La propaganda invade los móviles</h2>
<p>Aunque la propia Agencia Española de Protección de Datos <a href="https://www.aepd.es/prensa/2018-11-23-i.html">ha emitido una nota</a> al respecto tratando de aclarar la cuestión y explicando que no se ha autorizado la elaboración de perfiles o bases de datos basados en la ideología política de las personas, lo cierto es que se prescinde del consentimiento del titular, como base legitimadora. </p>
<p>Así, al amparo de un supuesto interés público, se legitima a los partidos para enviar propaganda electoral “por medios electrónicos o sistemas de mensajería”, así como a través de “redes sociales o medios equivalentes”, sin que estas comunicaciones sean consideradas comerciales. </p>
<p>Cabe preguntarse si ello significa que la LOPD exime del cumplimiento de la <a href="http://www.lssi.gob.es/la-ley/Paginas/ley-34-2002.aspx">Ley de Servicios de la Sociedad de la Información</a> o la <a href="https://www.boe.es/buscar/act.php?id=BOE-A-1988-26156">Ley General de Publicidad</a> a los partidos políticos cuando envían su publicidad propagandística. </p>
<p>Pero la nueva ley deja muchas más cosas en el aire. Por una deficiente técnica legislativa y con un pésimo sentido de la oportunidad, se ha “abusado” del momento para incluir un nuevo título en el proyecto de ley (Título X), que regula de forma sorpresiva y precipitada todo un nuevo elenco de derechos de digitales. Todos ellos son muy importantes y afectan a bienes jurídicos muy dispares. </p>
<p>Pero el hecho de tener como denominador común el entorno digital no justifica un tratamiento agrupado de los derechos, cuando su ubicación natural sería dispar: el derecho del trabajador a la desconexión debería pertenecer a la legislación laboral; los derechos de la personalidad relacionados con los de la ¿Ley Org. 1/82?, a la norma civil, o la regulación de las obligaciones de las empresas que son proveedores de acceso cabría dentro del saco de las normas especiales.</p>
<p>La LOPD también deja sin resolver algunos puntos importantes de la normativa europea (<a href="https://www.boe.es/buscar/doc.php?id=DOUE-L-2016-80807">RGPD - Reglamento General de Protección de Datos</a>), como los supuestos en los que la Evaluación de Impacto en la Protección de Datos resultaría obligatoria, o los criterios para establecer las sanciones en los amplios rangos que tanto RGPD como LOPD proporcionan. </p>
<p>Es cierto que se ha afinado y depurado el proyecto inicial de 2017. </p>
<p>El proyecto era una oportunidad magnífica para que el legislador español, con la justificación de tener que completar el RGPD en las áreas reservadas a los legisladores nacionales, y aclarar dudas y cuestiones que el RGPD había dejado sin concretar. Por ejemplo en relación con la edad mínima para dar el consentimiento, inicialmente prevista en 13 años y finalmente fijada en 14, lo que encaja mejor con nuestro ordenamiento jurídico. </p>
<h2>Bloqueo de datos</h2>
<p>También se ha definido mejor el alcance de la obligación de designar un Delegado de Protección de Datos, al especificarse una serie concreta de actividades cuya práctica requiere de la designación de tal figura dentro de la organización, al margen de los supuestos (más abstractos) previstos en la a RGPD. </p>
<p>Como novedad, merece destacarse la regulación del “bloqueo de datos”, concepto ajeno al RGPD pero que la LOPD oportunamente ahora define (“bloqueo de datos” se refiere a la obligación del responsable del tratamiento de suprimir o rectificar datos –art. 32–; puede estar relacionado con un ejercicio del derecho al olvido –regulado en los artículos 93 y 94–, pero puede atender también a otras situaciones que la propia ley regula –ejemplo, artículo 69–).</p>
<p>También es de agradecer que se haya optado y confirmado el sistema de información por capas, ya que facilita la comprensión por parte de los ciudadanos a la hora de conocer de sus derechos, y la gestión de dicho derecho por quienes hacen el tratamiento de los datos.</p><img src="https://counter.theconversation.com/content/107987/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ignacio Temiño es socio de Abril Abogados.</span></em></p>La inmensa mayoría de grupos parlamentarios en el Senado respaldó a finales del pasado noviembre una ley que permite a los partidos recopilar datos personales sobre opiniones políticas en el marco de sus actividades electorales para elaborar perfiles ideológicos. Pero, ¿esta opción es lícita? Algunos expertos han dado la voz de alarma.Ignacio Temiño, profesor de Derecho Civil, Universidad Pontificia ComillasLicensed as Creative Commons – attribution, no derivatives.