Intelixencia artificial e abuso infantil sintético: unha ameaza emerxente para a infancia

A intelixencia artificial (IA) transformou en poucos anos sectores como a arte, a educación e o entretemento, ofrecendo ferramentas de creación fáciles de usar para calquera persoa usuaria e con posibilidades case infinitas. Pero xunto con estes avances tamén emerxen perigos éticos e sociais. Un dos máis alarmantes é o uso de IA para xerar contidos sexuais que representan a menores de idade, unha forma de abuso infantil sintético que expón riscos graves para a infancia e para a sociedade no seu conxunto.
Que é o abuso infantil sintético?
Trátase de representacións visuais, sonoras ou textuais xeradas artificialmente (por exemplo, mediante deepfakes ou modelos xenerativos) que simulan escenas de abuso sexual infantil. Aínda que estas creacións non impliquen a explotación física directa dun neno ou nena, as súas consecuencias poden ser profundamente destrutivas tanto a nivel individual como social.
Por que é perigoso, aínda que sexa “ficticio”?
1. Reforzamento de condutas abusivas
Os contidos sexuais xerados por IA que representan a menores de idade poden actuar como catalizadores para persoas con tendencias pedófilas. Estudos en psicoloxía alertan que o consumo reiterado deste tipo de material, mesmo se é ficticio, pode desensibilizar, reducir as inhibicións morais e aumentar o risco de pasar ao abuso real. Noutras palabras, a fantasía pode converterse nun ensaio para a conduta delituosa.
2. Normalización e banalización do abuso
A proliferación deste tipo de contidos contribúe a unha perigosa trivialización do abuso infantil. En contornas dixitais onde o real e o artificial se mesturan con facilidade, a exposición continua pode erosionar o rexeitamento social ao abuso, debilitando as barreiras morais e éticas que o condenan.
3. Vitimización indirecta e risco para nenos e nenas reais
Aínda que non se utilicen imaxes reais, o uso de rostros tomados de redes sociais ou fotografías públicas para crear deepfakes hiperrealistas implica unha forma grave de violación da privacidade e a dignidade de nenos e nenas reais. Estes nenos e nenas poden ser convertidos, sen o seu consentimento, en vítimas dixitais, o que ademais eleva o risco de sufrir acoso, extorsión ou grooming.
Adaptación do marco legal fronte ás novas modalidades delituosas
Doutra banda, e considerando que a tecnoloxía facilitou modalidades delituosas inéditas, resulta fundamental adaptar o marco legal existente para protexer aos nenos, nenas e adolescentes e garantir a súa seguridade. Neste sentido, o Anteproxecto de Lei Orgánica para a protección das persoas menores de idade nas contornas dixitais tipifica como delitos os deepfakes pornográficos, é dicir, a difusión, sen autorización, de imaxes ou audio xerado por intelixencia artificial ou calquera outra tecnoloxía. https://www.mjusticia.gob.es/es/institucional/gabinete-comunicacion/noticias-ministerio/APLO-proteccion-menores-contornas-dixitais
Responsabilidade compartida: tecnoloxía, ética e prevención
Pero a solución non pode recaer só no marco legal. As plataformas dixitais, desarrolladores de intelixencia artificial e organismos gobernamentais deben asumir a súa responsabilidade ética e técnica:
- Implementando barreiras tecnolóxicas para detectar e bloquear contidos nocivos.
- Desenvolvendo sistemas de auditoría e moderación máis eficaces.
- Establecendo códigos de conduta e principios de deseño ético no desenvolvemento de IA xenerativa.
A intelixencia artificial é unha ferramenta poderosa, pero neutral. O seu impacto depende de como se use. No caso da pornografía infantil xerada por IA, non se trata só dunha cuestión legal ou tecnolóxica, senón dunha ameaza directa á protección das persoas máis vulnerables. Protexer á infancia debe ser un principio inquebrantable no desenvolvemento e aplicación de calquera tecnoloxía.