“El 4% de la población masculina tiene interés sexual en los niños”: La lucha del abogado italiano Emilio Puccio contra los ciberpederastas

La lucha del abogado italiano Emilio Puccio contra los ciberpederastas
La lucha del abogado italiano Emilio Puccio contra los ciberpederastas Foto: Andrés Pérez (La Tercera).

El secretario general del Intergrupo del Parlamento Europeo por los Derechos de la Niñez estuvo presente en Chile para concientizar sobre el resguardo de niños y niñas ante los peligros del mundo digital.


Mientras detallaba enérgicamente su trabajo y cómo proteger a la infancia de los peligros en la web, algo se asomó en su muñeca derecha. Bajo la manga de un distinguido traje de abogado apareció una pulsera multicolor que tenía la frase: “Childhood” (niñez en inglés).

Para Emilio Puccio, secretario general del Intergrupo del Parlamento Europeo para los Derechos del Niño, ese ha sido el lema central de su trabajo. Desde el grupo multipartidista compuesto por más de 120 eurodiputados y 26 organizaciones centradas en la infancia, busca integrar los derechos de los niños en las políticas y legislaciones en el Viejo Continente.

La lucha de Emilio Puccio contra los ciberpederastas

Y a veces es difícil, según reconoce. Esto, porque los niños no votan y no siempre son sujetos de interés para iniciativas de ley o proyectos políticos. También es complejo porque muchas veces no se ven a simple vista los riesgos a los que pueden estar expuestos.

El doctor en Derecho, oriundo de Sicilia, conversó con Qué Pasa para destacar uno de los grandes desafíos que existe en la actualidad: cómo resguardar a los niños y niñas de ciberdelitos y malas prácticas que tanto personas como compañías puedan cometer contra ellos.

Emilio Puccio
Emilio Puccio, Secretario General del Intergrupo del Parlamento Europeo para los Derechos del Niño. Foto: Andrés Pérez (La Tercera).

Puccio fue invitado al seminario “Construyendo entornos seguros para la infancia en el espacio virtual”, evento satélite de Congreso Futuro, organizado por la Fundación Encuentros del Futuro y el Senado. Esto, con el fin de concientizar sobre los temas que afectan a la sociedad tras la irrupción de las nuevas tecnologías y su impacto sobre nuestro mundo. Luego de su charla magistral, Puccio se dio el tiempo para hablar sobre los peligros de la web que muchas veces no se pueden controlar bajo una ley entendida para un territorio físico-analógico, y no digital.

-¿Cómo estamos ante esta realidad digital, con todas las preocupaciones que generan estos avances tecnológicos?

Dentro del contexto de América Latina, yo creo que Chile tiene un papel y un liderazgo indiscutible en todos los temas relacionados a los entornos digitales. En general, yo veo que tiene mucho interés en reglamentar, y pienso que se encuentra en una posición estratégica muy importante para incluso poder liderar dentro del contexto de América Latina sobre esos temas.

Europa promulgó hace poco la primera Ley de Inteligencia Artificial. Pero por ejemplo acá está la Política de Inteligencia Artificial, y hace poco la reforma constitucional sobre los neuro derechos. Eso sí que es único en el mundo entero.

-¿Qué tan expuestos están los niños en este espacio digital?

Hablamos del hecho de que uno de cada tres usuarios del mundo es menor de edad, es una cantidad enorme. Tienen mucho más en juego, porque ellos son nativos digitales, esperamos que lo tengan todo y no es así. Sinceramente no es justo pensar así.

Sus datos están siendo recolectados de la misma manera en que los adultos. Las empresas a través de los algoritmos pueden coleccionar y perfilar a los menores, incluso para darles publicidades específicas para que ellos compren ciertas cosas.

En el mundo analógico aceptamos que cierto acceso a ciertos espacios esté restringido para personas bajo una cierta edad. Pues lo mismo tendría que ocurrir en el mundo digital, así de fácil.

d
Niñez. Imagen de referencia.

-¿Qué tan distinto es el riesgo de un menor en el mundo digital, en comparación al analógico? En muchas partes les dicen que se queden en casa, en el computador, en el celular para no salir a la calle a exponerse a los peligros.

Tampoco soy partidario de la idea que el internet como tal haya creado nuevos tipos de riesgos. Lo único que sí creo que ha cambiado, y lo ha hecho enormemente, es el hecho de estar expuestos de manera multiplicada.

Es muy triste decirlo y sé que es muy incómodo, pero muchos estudios apuntan que hasta el 4% de la población masculina del mundo tiene un interés sexual en los niños. Lo que pasa es que antes un pedófilo, a lo mejor podía reclutar a sus víctimas en un parque o algo. Pues hoy en día el modelo de negocios está diseñado sin ninguna diferencia entre niños y adultos.

Pues, a la misma vez que tú puedes contactar a un adulto, tú como adulto puedes contactar fácilmente a un niño o niña sin encontrar ninguna barrera. Lamento la falta de una normativa específica que tenga en consideración estas vulnerabilidades específicas.

-¿Cómo se puede proteger, entonces, sin que esto se traduzca en restricciones al acceso para niños y niñas al mundo digital?

Nuestro punto de partida no es restringir el acceso, ya que reduce un poco las igualdades, sobre todo para muchos niños y niñas que viven en ciertas zonas remotas del continente y pueden acceder al mismo tipo de información que gente que vive en ciudades grandes. Pues el mecanismo, una vez más, apunta a que muchos de los niños y niñas sufren violaciones de sus derechos fundamentales en estas plataformas de redes.

Entonces, el punto es responsabilizar a las redes sociales que están recolectando y monetizando estos datos. Por eso, el marco normativo en el que nosotros nos estamos moviendo apunta a proporcionar reglas específicas para obligar a las empresas a incorporar medidas de seguridad.

Emilio Puccio
Emilio Puccio. Foto: Andrés Pérez (La Tercera).

-¿En qué se debería enfocar la fiscalización de los contenidos y algoritmos?

El punto no es tanto fiscalizar a las empresas, demonizarlas y pensar que son lo malo de nuestra sociedad. Ellos no son dueños del contenido como tal, pero sí que tenemos que responsabilizar la creación de un contexto y un entorno que sea seguro por diseño, o siempre habrán vulneraciones.

La razón por la que estas plataformas son gratuitas para los usuarios es porque ellos quieren tus datos, ellos quieren saber lo que tú estás haciendo. Y, una vez más, lo que buscamos es justamente de obligarles a evitar, por ejemplo, la utilización de patrones adictivos para niños.

-¿Y ahí cómo es posible judicializar un proceso que funciona en el ciberespacio, realizado por programas que operan desde el otro lado del mundo?

Mira, según un estudio realizado por la International Justice Mission, alrededor de 500.000 niños en Filipinas son traficados por organizaciones que los explotan de manera sexual, frente a una cámara a través de transmisiones en vivo para gente que está muy cómoda en Estados Unidos y en Europa. Esto es inaceptable.

Si nosotros llegamos a hacer una legislación que haga que las empresas estén obligadas a detectar esos tipos de directos en vivo, por ejemplo, a través del uso de herramientas tecnológicas, eso puede tener un impacto enorme en quebrar la demanda y eso puede salvar vidas enteras de niños. Las empresas no se van a arriesgar de perder el 60% de su cuota de mercado que proporciona Europa, sería un suicidio económico.

-Eso funciona en la prevención de un delito, ¿pero cómo se puede responsabilizar a una compañía que influya acciones determinadas en niños?

En casos de incitación al suicidio o contenido de discurso de odio es posible realizar algoritmos que puedan identificar palabras claves, y lo hicimos. Por ejemplo, en la Unión Europea durante muchos años fue afectada por el fenómeno de terrorismo yihadista. Y, entonces, nosotros tuvimos que llevar a cabo una legislación que pudiese evitar el reclutamiento de terroristas online. Y lo mismo se puede hacer con otro tipo de delitos, lo puedes modular.

-¿Y cómo funciona el cuidado con los sesgos que la inteligencia artificial también tiene?

La detección por las máquinas es el primer punto de un proceso mucho más largo. Siempre va a tener que haber una moderación humana. Una vez que esto esté identificado por la máquina, las empresas tienen equipos de moderadores online.

formas de cuidar a los niños de las redes sociales. Foto referencial.
Foto referencial.

Y en el caso de la Unión Europea, ya que se trata de delitos, nosotros hemos incluido diferentes salvaguardas. En el caso de abusos sexuales en línea, por ejemplo, una vez que las empresas detecten ese material, es solo una autoridad judicial la que puede pedir que retiren el material mismo.

-Respecto a la Ley de IA que se promulgó en Europa recientemente ¿qué aspectos están enfocadas en la protección de niños y niñas?

Nosotros conseguimos incluir enmiendas específicas que tengan en consideración la vulnerabilidad de los niños. Incluimos una enmienda que prohíbe a las empresas el uso de técnicas subliminales, que puedan influenciar su capacidad de discernimiento.

Este tipo de patrones oscuros y técnicas subliminales no se pueden utilizar. Quizás ha sido un tema bastante controversial, pero Europa también tiene una de las legislaciones más importantes en el mundo para la protección de los datos personales.

-¿Y cuáles son los desafíos para perfeccionar esta ley?

Hay un desafío que yo he encontrado en todo el mundo, y pienso que es muy difícil para los políticos y las personas que toman decisiones entender que niños, niñas y adolescentes tienen que tener un papel central.

Cualquier tipo de intervención que se haga, que tenga como referencia la infancia y la adolescencia, no tiene sus frutos inmediatamente. Tiene sus frutos en 5 o 10 años. Entonces, muchas de esas intervenciones no se pueden medir de manera inmediata.

Mi idea es la de crear una alianza global en el mundo entero para que los derechos de los niños, niñas y adolescentes sean centrales en todas las políticas sobre el futuro. No se puede hablar del futuro sin tener en mente a los niños, niñas y adolescentes.

-Alcancé a notar tu pulsera que dice “Childhood” ¿Qué significa para ti este trabajo sobre el cuidado de los derechos de los niños en el entorno digital?

Desde hace nueve años que ocupo ese cargo, y siento que hago el trabajo mejor del mundo. Pienso que es muy difícil hacer entender que los niños no solo son el futuro, sino son el presente, y que venimos de una mentalidad bastante paternalista, donde no se ven los niños como sujetos de derecho, porque son más pequeños.

Y quizás, también porque yo me acuerdo cómo me sentí cuando era niño, me acuerdo de vivir en una sociedad donde no se da mucho espacio a los niños. Y, entonces, pienso que si nosotros intervenimos desde el principio, con políticas específicas que puedan empoderarlos, eso va a beneficiar a toda la sociedad en su conjunto.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.