El “efecto Taylor Swift” urge la regulación de IA
Los riesgos del uso de la Inteligencia Artificial (IA) se hicieron presentes, pero está vez podrían haberse topado con pared. El último incidente con imágenes explícitas de Taylor Swift realizadas con IA, ha desatado una urgente llamada de atención sobre la necesidad de regulación en el uso de la Inteligencia Artificial (IA).
Las imágenes, que retratan a la icónica cantante en escenarios ofensivos, han generado indignación entre sus seguidores y han suscitado un debate sobre la ética digital y el potencial daño de la IA.
El incidente comenzó en la plataforma X, anteriormente Twitter, donde una publicación destacada en atrajo más de 45 millones de visitas, 24 mil reenvíos y cientos de miles de me gusta y marcadores antes de que se suspendiera la cuenta del usuario verificado por violar la política de la plataforma. La publicación estuvo en línea durante aproximadamente 17 horas antes de ser eliminada.
Sin embargo, las imágenes se difundieron y volvieron a publicarse en otras cuentas. A pesar de las políticas de X que prohíben explícitamente la manipulación de medios y la desnudez no consensuada, muchas imágenes aún circulan en la plataforma.
Como consecuencia, la plataforma bloqueó las búsquedas de Taylor Swift, aunque de manera temporal y parcial. “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas”, se lee en una publicación en la plataforma.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
Meta también abordó el problema, sugiriendo "Taylor Swift AI" en las búsquedas pero sin mostrar resultados. La preocupación ha llegado incluso a la Casa Blanca, donde la secretaria de prensa, Karine Jean-Pierre, ha expresado alarma y llamado al Congreso a legislar para proteger a las personas de la pornografía deepfake.
Además, el director ejecutivo de Microsoft, Satya Nadella, también ha respondido a la controversia calificando la proliferación de desnudos simulados no consentidos como "alarmante y terrible". Nadella señala la responsabilidad compartida en reforzar las barreras tecnológicas, pero también destaca la necesidad de normas globales y sociales.
Dichas imágenes podrían haber sido creadas con el generador de imágenes de Microsoft Designer, según informa el medio de comunicación especializado The Verge, y que podrían provenir de una comunidad de creación de pornografía no consensuada basada en Telegram.
Aunque Designer no produce imágenes de personajes famosos, los generadores de IA son fáciles de engañar. Si bien eso no prueba que se utilizó Designer para las imágenes de Swift, sigue siendo una consecuencia que debe ser abordada no sólo por Microsoft, sino por el ecosistema tecnológico en general.
La legalidad de las imágenes pornográficas generadas por IA, como las de Taylor Swift, varía significativamente entre jurisdicciones. En Estados Unidos, la falta de legislación integral deja a las víctimas en un limbo legal. Solo 10 estados tienen leyes específicas contra la creación y distribución de pornografía deepfake, que es una forma de manipulación de imágenes o videos con herramientas de Inteligencia Artificial.
Europa, por otro lado, busca un enfoque más estructurado con la Ley de Inteligencia Artificial propuesta por la Unión Europea y el Reglamento General de Protección de Datos (GDPR), que buscan regular el contenido generado por IA, aunque al menos la ley que integraría estas prácticas y el uso de manera ética de esta tecnología, entraría en vigor hasta 2025 y 2026, por lo que este año se encuentra en un área gris.
Sin embargo, a pesar de estas primeras medidas, Microsoft no cuenta con una gama clara de soluciones. Legisladores y autoridades enfrentan desafíos para abordar las imágenes sexuales no consensuadas en general, y la complicación adicional de la falsificación mediante IA. Algunos legisladores buscan reformar las leyes de derechos de publicidad para enfrentar el problema, pero las soluciones propuestas a menudo plantean riesgos sustanciales para la libertad de expresión.
Sin embargo, es de esperarse que la regulación sea más lenta que la innovación, aunque el “efecto Taylor Swift” podría agilizarlo,
Swift, conocida por su impacto masivo en la cultura pop, ha llevado la discusión sobre la regulación de las imágenes generadas por IA a nuevos niveles. La base de fans de Swift, conocida como Swifties, se ha unido en plataformas digitales para combatir la propagación de estas imágenes, simbolizando una defensa colectiva de la artista y una postura contra el uso indebido de la tecnología de IA.
Además de la respuesta de las plataformas de redes sociales y la Casa Blanca, la artista tiene un potencial severo respecto a la influencia de sus decisiones, un ejemplo de ello es su influencia en las próximas elecciones de los Estados Unidos.
Ahora que Swift podría emprender acciones legales en contra del sitio que elaboró estas imágenes, la industria podría reaccionar de la misma forma, siendo un parteaguas para la regulación de estas prácticas o de su difusión mediante redes sociales.
Este suceso destaca la urgencia de una legislación integral y tecnologías avanzadas para abordar los riesgos y el impacto potencialmente devastador de la tecnología deepfake en la sociedad actual.