Tecnología

«Los agresores juegan con ventaja»: las redes sociales, puerta de entrada al acoso sexual infantil

Los agresores sexuales acuden cada vez más a las redes sociales. De Instagram a TikTok, toda plataforma frecuentada por menores de edad es también un puerta trasera por donde pueden colarse adultos con oscuras intenciones. Su objetivo, alerta la organización Save the Children, es ganarse poco a poco la confianza de las víctimas «para luego involucrarlas en una actividad sexual«. Acercamiento, conversaciones íntimas, intercambio de imágenes explícitas y extorsión o manipulación emocional para que termine produciéndose un encuentro físico.

Aunque la inmensa mayoría de casos se dan desde el ámbito intrafamiliar, el acoso sexual a través de internet es cada vez más habitual. En España, un 23% de los adolescentes de entre 12 y 15 años han sufrido un fenómeno conocido como ‘online grooming‘ o ‘cybergrooming‘ en inglés. Así lo revela una reciente investigación pionera realizada por cuatro universidades del país, que advierte que las niñas reciben muchas más peticiones sexuales y que hasta en un 14% de los casos el menor interactúa con su potencial agresor. El perfil de víctima y de agresor es heterogéneo.

«Los datos de denuncias crecen año a año y aun así suponen como mucho el 10% de los casos reales», alerta Irene Montiel, psicóloga jurídica experta en ciberabuso sexual. La también profesora de la UOC explica a EL PERIÓDICO que los depredadores buscan a adolescentes faltadas de atención que están en pleno desarrollo sexual y que usan las redes para experimentar mientras sus familias «no saben de la misa la mitad». Así, se da una doble asimetría de poder: «Los agresores juegan con mucha ventaja, tienen más edad y experiencia, pero también más información para seleccionar a sus víctimas», añade.

«Los agresores juegan con mucha ventaja: tienen más edad y experiencia, pero también más información para seleccionar a sus víctimas».

Irene Montiel

psicóloga jurídica experta en ciberabuso sexual

La captación de menores con voluntad sexual es un delito tipificado en el artículo 183 del Código Penal que acarrea penas de prisión de uno a tres años. Aun así, el acoso digital no ha parado de extenderse. Y lo ha hecho especialmente desde 2020, año en el confinamiento causado por la irrupción de la pandemia del covid disparó la presencia ‘online’ de los menores. En el Reino Unido, los delitos relacionados con imágenes de abuso sexual a niñas y niños se ha disparado un 66% en los últimos cinco años, según la organización benéfica NSPCC.

Detección automática

El aumento del acoso en línea a menores es un problema mayúsculo e incómodo. Presionados por la urgencia, los gobiernos buscan fórmulas efectivas para limitar la propagación de estos contenidos indeseados. Sin ir más lejos, la Unión Europea (UE) estudia una controvertida regulación —popularmente conocida como ‘Chat Control‘— que obligaría a las plataformas tecnológicas a escanear mensajes privados, fotografías y vídeos de millones de usuarios de aplicaciones como WhatsApp para detectar y denunciar material ilegal. Estados Unidos y el Reino Unido ultiman medidas restrictivas similares.

Hasta ahora, las redes sociales han tenido que eliminar los contenidos abusivos previamente denunciados, pero nada las ha forzado a buscarlos de forma proactiva. Eso puede estar a punto de cambiar. «Hay mucha impunidad en las redes porque los prestadores de servicio no tienen la obligación de detectar esos contenidos. Queda claro que no están haciendo suficiente», señala Ona Lorda, responsable de políticas de infancia en Catalunya de Save the Children, organización que aún no tiene una posición pública sobre la propuesta europea.

«Hay mucha impunidad porque las plataformas no están obligadas a detectar esos contenidos. Queda claro que no están haciendo suficiente».

Ona Lorda

responsable de políticas de infancia de Save the Children en Catalunya

Por su parte, las empresas tecnológicas llevan tiempo desarrollando soluciones técnicas. Gigantes como Google, Amazon, Meta o Apple usan PhotoDNA, una herramienta diseñada en 2009 por académicos y Microsoft que automatiza el bloqueo del abuso sexual infantil. Entrenado con millones de datos sensibles, este sistema es capaz de rastrear las imágenes colgadas en internet para identificar y eliminar las sospechosas. Aunque Twitter (rebautizada como X) también lo usa, lo habría tenido desactivado, permitiendo la difusión de imágenes sexuales de menores. Su propietario, Elon Musk, también ha sido criticado por desbloquear la cuenta de un conocido usuario de extrema derecha que colgó esos contenidos prohibidos.

Aun así, la efectividad de mecanismo es limitada. «Los agresores usan palabras clave o símbolos que sólo ellos conocen para sortearlo y seguir intercambiando material», advierte Montiel.

Privacidad en riesgo

Los grupos de protección a la infancia aplauden muchas de estas medidas. Sin embargo, son vistas con temor por parte de los defensores de los derechos digitales. Organizaciones como X-Net han denunciado que la ley que prepara Bruselas «violará derechos fundamentales como el secreto de las comunicaciones o la privacidad«, además de ser «técnicamente inviable». Incluso un estudio del Servicio Científico del Parlamento Europeo ha considerado que esa tecnología de detección provocará más denuncias y menos precisión. Un documento filtrado a la revista ‘Wired’ señala incluso que España estaría presionando para prohibir el cifrado de extremo a extremo, información que el Ministerio del Interior rechaza. En EEUU, la medida también genera el rechazo de los expertos digitales, que la ven como una «amenaza a libertad de expresión en la red».

La propuesta de ley europea podría aprobarse en los próximos meses, pero, de hacerlo, podría quedar encallada en los tribunales. En agosto de 2021, Apple anunció el lanzamiento de una herramienta que escaneaba todas las imágenes tomadas desde dispositivos como iPhone o iPad antes de subirse a la nube para detectar posibles casos de abuso sexual infantil. Sin embargo, el alud de críticas de los expertos forzó a la compañía a abandonar el desarrollo de una tecnología considerada «peligrosa».

Nuevos problemas

Noticias relacionadas

Otro problema está empezando a florecer. Varios estudios han alertado que en los últimos meses ha crecido el número de imágenes falsas pero realistas de abuso explícito a menores generadas con inteligencia artificial (IA). Los expertos creen que el fácil acceso a esas herramientas aumentará su uso por parte de actores peligrosos. Algunas empresas del sector, sin embargo, trabajan en un nuevo sistema de detección que les permita actuar más rápido.

La automatización de la detección de este tipo de contenidos también levanta dudas sobre su efectividad. «El ‘cibergrooming’ comienza incluso antes de que se envíe una foto, y también puede tener lugar completamente sin imágenes», advierte un artículo en Algorithm Watch. Las plataformas usan sistemas para bloquear términos explícitos relacionados con el abuso infantil, pero los depredadores sexuales están aprendiendo a usar nuevas fórmulas lingüísticas para burlar estas medidas. En una reacción en cadena, gobiernos, académicos y agencias policiales están respondiendo a ello con nuevos sistemas de detección más sofisticados. Su fiabilidad aún no está clara.

.

Publicaciones relacionadas

Botón volver arriba