Algoritmo de Instagram facilitaría la difusión de redes de pedofilia: WSJ
La popular red social de Meta, Instagram, enfrenta diversos señalamientos por fomentar, a través de su algoritmo, cuentas de pedofilia y explotación sexual, reveló una investigación reciente por parte del WSJ y la Universidad de Stanford.
En el reportaje, publicado este miércoles, se detalla que Instagram conecta a pedófilos y los guía a los vendedores de contenido a través de sistemas de recomendación que se destacan por el algoritmo de la aplicación.
“Los pedófilos han usado Internet durante mucho tiempo, pero a diferencia de los foros y los servicios de transferencia de archivos que atienden a las personas interesadas en contenido ilícito, Instagram no solo alberga estas actividades. Sus algoritmos los promueven”, informó el WSJ.
Por su parte, Meta comentó al WSJ que en los últimos años han implementado nuevas normas y herramientas para luchar contra estas redes, tan solo, destacaron que entre 2020 y 2022, “desmantelaron 27 redes abusivas” y en enero de 2023 inhabilitaron más de 490 mil cuentas por violar políticas de seguridad infantil.
Según la compañía, a partir del cuarto trimestre de 2022, la tecnología de Meta eliminó más de 34 millones de piezas de contenido de explotación sexual infantil de Facebook e Instagram. “Más del 98% del cual fue detectado antes de que los usuarios lo denunciaran, dijo la compañía”, explicaron.
With blatant hashtags, a pedophile network has flourished on Instagram. The platform doesn’t merely host these activities. Its algorithms have actively promoted them. https://t.co/p78BKZrFtN
— The Wall Street Journal (@WSJ) June 7, 2023
La investigación del WSJ informa que los obstáculos técnicos y legales complican determinar la escala total de la red de pedófila en la aplicación. De acuerdo con la Universidad de Stanford, se detectaron más de 405 vendedores, los cuales usaban hashtags con palabras clave para que los usuarios puedan identificarlos.
De igual manera, se determinó que las cuentas de Instagram que ofrecen vender material sexual ilícito generalmente no lo publican abiertamente y que dichas cuentas a menudo se vinculan a "sitios de intercambio de contenido fuera de la plataforma".
Como parte de la investigación, el WSJ creó diversas cuentas de prueba para verificar si la recomendación del algoritmo era verídica, lo que concluyó en que después de “ver o seguir” una cuenta de esta índole, comenzaron a recibir recomendaciones en el apartado “explorar” de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que se vinculan a sitios de comercio de contenido fuera de la plataforma. “Seguir solo un puñado de estas recomendaciones fue suficiente para inundar una cuenta de prueba con contenido que sexualiza a los menores de edad”, explicó el medio.
Como parte de la investigación, el WSJ informó que también se descubrió que Instagram permitía a las personas buscar hashtags explícitos como “#pedowhore” y “#preteensex", lo que logró que el algoritmo recomendara más cuentas que usaban estos términos para anunciar la venta de material sexual infantil.
Hasta el momento, Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados. “La explotación infantil es un crimen horrible, estamos investigando continuamente formas de defenderse activamente contra este comportamiento”, informó la compañía.
Entre otras plataformas como Snapchat y TikTok, el WSJ señala que no parecen facilitar las redes de pedófilos que buscan contenido de abuso infantil de la forma en que lo ha hecho Instagram. Sin embargo, en Twitter, el equipo del Observatorio de Internet de Stanford identificó 128 cuentas que ofrecían vender contenido de abuso sexual infantil. Según los investigadores, Twitter no recomendó tales cuentas en la misma medida que Instagram y Twitter también eliminó dichas cuentas “mucho más rápido”.