Europol pide más herramientas legales y policiales para luchar contra material de abuso infantil generado con IA

La agencia europea de cooperación policial Europol ha pedido más herramientas legales y
policiales para luchar contra el material de abuso sexual infantil generado con inteligencia
artificial (IA), como el del caso de Almendralejo (Badajoz), donde se difundieron a través de
aplicaciones de mensajería instantánea falsos desnudos de menores creadas por estas
herramientas tecnológicas.

Así ha respondido la directora ejecutiva de Europol, Catherine de Bolle, a la carta de la
eurodiputada Maite Pagazaurtundua sobre el caso denunciado en Almendralejo. La agencia
asegura a Pagaza que ha sido informada del caso por las autoridades españolas, en concreto,
el equipo del Proyecto de Análisis Twins, especializado en material de abuso sexual infantil.

 

Pagaza denunció este grave caso “en el que se entremezclan la usurpación de identidad y los
abusos sexuales a menores en la red”. “Estas nuevas formas de ciberdelincuencia afectan a los
derechos fundamentales, a la libertad sexual, el honor y la propia imagen de los menores que
debe depurarse a nivel penal y civil, pero cuyo origen está en el uso por parte de unos de datos
personales protegidos. Es ahí donde hay que actuar con toda la intensidad”, advertía.

 

En su respuesta, Europol le asegura que coopera a escala internacional y con todas las
autoridades nacionales contra la creación y propagación de este material producido con
inteligencia artificial, pero que “cada vez es más difícil distinguir el contenido generado por IA
del material de desnudos reales”.

 

Prevé de hecho que en el futuro se complique el trabajo de las fuerzas policiales porque de
momento el problema se limita a las fotografías, “pero se estima que se extenderá al material
de vídeo en un futuro próximo”, y porque “la tecnología puede usarse además para alterar los
antecedentes de contenido real, haciéndolo más difícil de detectar”.

 

Por todo ello, Europol pide herramientas de lucha. “Sería beneficioso si el futuro marco
legislativo de la UE sobre IA garantizara herramientas relevantes para las fuerzas del orden y
para Europol en particular, junto con procesos ágiles que permitan una prevención y detección
efectivas de este tipo de delitos”, expone De Bolle en su respuesta.

 

Al mismo tiempo que la IA tiene este uso tan grave, se puede emplear para identificar y
analizar ese mismo material. Por ello, Europol explica que colabora con el Supervisor Europeo
de Protección de Datos para explorar nuevas vías de investigación más eficaces.

 

Maite Pagazaurtundua es vicepresidenta de la Comisión de Libertades y Justicia del
Parlamento Europeo. La eurodiputada trabaja sobre el uso malicioso de la IA en distintos
ámbitos, como este de la protección de los menores, así como en el terreno de la política. A
este respecto, Pagaza ha lanzado un paquete de peticiones a la Comisión Europea, a Europol y
al equipo negociador de la futura legislación sobre publicidad política, para evaluar la
peligrosidad para el Estado de Derecho del uso de inteligencia artificial por parte de políticos,
representantes públicos y partidos.

 

“La evolución de las posibilidades de manipulación de imágenes a través de la IA es
vertiginosa. Su uso también en la manipulación política, la creación de sesgos más sectarios y
contra la propia idea del pluralismo ideológico es un riesgo cada vez más grave”, plantea
Pagaza.

 

Sabemos que cuando nos encontramos cara a cara con expertos que están investigando las
oportunidades y retos a los que nos enfrentamos sucede algo poderoso. Las ideas fluyen. La
inspiración se instala más profundamente y genera compromiso con el cambio.

 

Pero hace algunos años, nos dimos cuenta de que, si bien el plenario es un espacio valioso
para inspiración y networking, podíamos llevar las cosas aún más lejos. Con el objetivo de
abordar en detalle algunos de los desafíos que enfrentan los profesionales de la gestión de las
firmas y esbozar soluciones, ideamos la segunda jornada del Legal Forum, que llamamos
itinerarios paralelos porque son actividades de casi tres horas que transcurren
simultáneamente entre las que hay que escoger una. Estos talleres prácticos se han convertido
en una parte esencial del evento.

 

El itinerario sobre fórmulas y estrategias para optimizar la rentabilidad en los despachos,
conducido por Eugenia Navarro, socia de LOIS y miembro de Inkietos, y José María De La Jara,
abogado, consultor de legal operations e investigador de ciencias conductuales se focalizó en
el impacto del modelo operativo de las firmas de abogados en su rentabilidad.

 

El «workshop» comenzó con un intercambio de ideas sobre el contexto y algunos cambios de
paradigmas, como la facturación por valor, la productivización de los servicios y la creación de
nuevos mercados.

 

Los asistentes (socios, gerentes financieros, directores de marketing y líderes de innovación) se
separaron en tres grupos para analizar y proponer soluciones a problemas en tres aspectos
distintos: eficiencia operativa, modelo de «pricing «y estrategia comercial.

 

TRES DESAFÍOS


El primer desafío se centró en un despacho que pasaba una cantidad considerable de tiempo
en tareas administrativas, tomaba decisiones estratégicas en base a informes financieros
desactualizados y que recientemente había recibido quejas de un cliente por no haber
respetado el cap acordado en una factura.

 

El segundo escenario se focalizó en una firma con 80% de encargos bajo un esquema de
facturación por horas, que podía cobrar solo 120 de cada 200 horas trabajadas y que estaba
teniendo serios problemas para implementar tarifas fijas e igualas.

 

El tercer caso los transportó a una boutique de arbitraje, en la que los abogados se dedicaban
principalmente a escribir sobre temas candentes como criptomonedas, metaverso y
«blockchain».

 

Sin embargo, a pesar de su experiencia, carecían de una estrategia clara para posicionarse
como autoridades en estos campos ante su audiencia objetivo.

 

Además, la firma carecía de un sistema de gestión de relaciones con el cliente (CRM), lo que
dificultaba el seguimiento de oportunidades comerciales, ralentizaba la preparación de
propuestas y tenía un impacto negativo en la conversión de leads en clientes reales.

 

Los grupos trabajaron arduamente y generaron ideas para abordar estos desafíos. Cada uno
tenía como objetivo optimizar la rentabilidad para impulsar a estas firmas hacia un futuro más
prometedor y los participantes salieron con soluciones que pueden aplicar en sus propias
firmas.

 

TALLER SOBRE APLICACIÓN PRÁCTICA DE LA IA GENERATIVA (CHATGPT) Y CASOS DE USO


Durante este taller, se abordaron los elementos críticos del uso eficiente y seguro de la
inteligencia artificial generativa en el ámbito legal. Aunque los ponentes coincidieron en
destacar la utilidad de esta herramienta para agilizar ciertas tareas, también hicieron hincapié
en su imperfección y en la necesidad de supervisión humana debido a la posibilidad de
resultados imprecisos o erróneos.

 

Cristina Retana, directora de Contenidos e Innovación de Aranzadi LA LEY y patrona de su
fundación, explicó que la IA generativa se emplea en el sector legal para generar textos de
aparente calidad, pero advirtió que estas tecnologías no comprenden completamente las
respuestas que generan.

 

Aunque el contenido producido puede tener una apariencia convincente y lógica, en ocasiones
puede ser impreciso, incorrecto o incluso inventado, lo que en el ámbito legal puede tener
consecuencias graves.

 

Una buena reputación en el negocio de las firmas puede tener un impacto significativo en tres
áreas clave: la captación de negocio, la atracción de talento y la relación con terceras partes

David Hurtado Torán, «Innovation Lead en Microsoft», coincidió en la importancia de
supervisar estas tecnologías en la abogacía debido a su falta de precisión y fiabilidad.

 

Explicó que estas herramientas se basan en un sistema de predicción de palabras que utiliza el
conocimiento general del lenguaje, pero carecen de precisión con datos específicos, ya que
dependen de información disponible en internet que no siempre es fiable.

 

Para minimizar los posibles errores en el contenido generado por la IA, se recomienda
especificar al máximo la pregunta o término utilizado (prompt) y proporcionar la mayor
cantidad de información posible al sistema.

 

Según José Medina, «Chief Technology Officer» (CTO) de la Región Sur del Grupo Karnov para Francia, España y Portugal, cuanta más información se da al sistema, mejor será la respuesta que genere.

 

“En función de las palabras que apliquemos la IA dará una respuesta de una forma u otra, la
forma en la que se construye los prompting influye mucho en la calidad y en el resultado de la
respuesta de esta herramienta”, concluyó.

 

Para finalizar, los expertos recapitularon una serie de recomendaciones y precauciones que los
usuarios de esta herramienta deben tener en cuenta para aplicar esta tecnología en el ámbito
legal.

 

Principalmente: supervisar el contenido, confirmar las fuentes, aceptar que no comprende lo
que estás diciendo, aprender a preguntar y conversar, no subir documentos confidenciales,
priorizar los casos de uso y, finalmente, definir las políticas de uso de las máquinas.

 

0
Feed

Dejar un comentario

© 2024 Alejandro Bancalero Blanco Todos los derechos reservados
Producido por BeeDIGITAL