Loading...

Durante el año pasado, hemos visto un auge en la tecnología inteligente artificial (AII) . Desde lo bueno (elegir embriones viables de FIV) hasta lo malo (diseñar pósters inspiradores) hasta lo extraño (encontrar pintorescos nombres de lugares británicos, a veces groseros) , su éxito ha sido un tanto confuso.

ESTA TECNOLOGÍA ESTARÁ LISTA PARA DENTRO DE 2 AÑOS

Las últimas noticias en el mundo de AI provienen de Londres, Reino Unido, donde la Policía Metropolitana de la ciudad ha anunciado planes para utilizar inteligencia artificial para escanear dispositivos electrónicos en busca de imágenes de abuso infantil. Dicen que la tecnología debe estar lista para su uso dentro de “dos o tres años” .

Por ahora, sin embargo, solo hay un pequeño inconveniente: el software confunde paisajes desérticos para fotografías de desnudos. Presumiblemente, es por el color.

El Met ya usa una forma menos refinada de software de reconocimiento de imágenes. El problema es que, como explicó Mark Stokes en una entrevista con The Telegraph , mientras el software puede detectar ciertas formas de actividad criminal (armas de fuego, drogas y dinero), le resulta mucho más difícil identificar imágenes y videos pornográficos. Stokes es el jefe de análisis forense digital y electrónico de la Policía Metropolitana.

Esto significa que depende de los propios agentes de policía pasar por las imágenes indecentes y calificarlas para diferentes sentencias, un ejercicio penoso y psicológicamente estresante, especialmente teniendo en cuenta la escala de la tarea. Según The Telegraph , el Met tuvo que buscar entre 53,000 dispositivos con imágenes incriminatorias en 2016. En febrero, un oficial de policía llamó a los niveles de delitos sexuales infantiles registrados en el país “asombrosos”.

LAS FUERZAS DE SEGURIDAD NO PUEDEN MÁS, NECESITAN APOYO

“Puedes imaginar que hacer eso todo el año es muy perturbador”, dijo Stokes al Telegraph.

Afortunadamente, las mejoras tecnológicas pueden significar que la tarea se transmite a objetos inanimados, que no se verán afectados psicológicamente por el trabajo. La fuerza policial británica está trabajando actualmente con proveedores de Silicon Valley (como Google y Amazon) para crear una tecnología de inteligencia artificial lo suficientemente avanzada como para identificar imágenes abusivas, pero todavía hay algunas fallas técnicas para suavizar.

“A veces se trata de un desierto y cree que es una imagen indecente o pornografía”, explicó Stokes en el (ISC) 2 Secure Summit en Londres.

Lo cual es problemático porque los paisajes desérticos son un protector de pantalla popular y una opción de fondo de pantalla.

“Por alguna razón, muchas personas tienen protectores de pantalla de los desiertos y lo toman pensando que es el color de la piel”.

[H / T: The Telegraph ]

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here