Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

Tecnología de reconocimiento facial presenta errores masivos, según estudio

Estos pueden producir resultados extremadamente inexactos, especialmente para los no blancos.

20180_Reconocimiento facial / Foto de referencia: Getty Images
Tecnología de reconocimiento facial presenta errores masivos, según estudio
Reconocimiento facial / Foto de referencia: Getty Images

Los sistemas de reconocimiento facial pueden producir resultados extremadamente inexactos, especialmente para los no blancos, según un estudio del gobierno de Estados Unidos que probablemente genere nuevas dudas sobre el despliegue de la tecnología de inteligencia artificial.

 

El estudio de decenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.

 

Publicidad

Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que dos algoritmos asignaron el género incorrecto a las mujeres negras casi el 35% de las veces.

 

Publicidad

El estudio se produce en medio del despliegue generalizado de reconocimiento facial en aeropuertos, seguridad fronteriza, banca, comercio minorista, escuelas y tecnología personal, así como para desbloquear teléfonos inteligentes.

 

Algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande, que éstos podrían resultar en el encarcelamiento de personas inocentes, y que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.

 

Publicidad

El estudio del NIST encontró tanto "falsos positivos", por los que un individuo es identificado erróneamente, como "falsos negativos", en los que el algoritmo no logra hacer coincidir con precisión una cara con una persona específica en una base de datos.

 

Publicidad

"Un falso negativo podría ser simplemente un inconveniente. La persona no puede acceder a su teléfono, por ejemplo, pero el problema generalmente se puede remediar con un segundo intento", dijo el investigador principal Patrick Grother.

 

"Pero un falso positivo justifica un mayor escrutinio", señaló.

 

Publicidad

El estudio encontró que los sistemas de reconocimiento facial desarrollados en Estados Unidos presentan tasas de error más altas para los asiáticos, los negros y los nativos estadounidenses.

 

Publicidad

El grupo demográfico de los indios estadounidenses mostró las tasas más altas de falsos positivos.

 

Sin embargo, algunos algoritmos desarrollados en países asiáticos produjeron tasas de precisión similares para la coincidencia entre caras asiáticas y caucásicas, lo que según los investigadores sugiere que estas disparidades pueden corregirse.

 

Publicidad

No obstante, Jay Stanley, de la Unión Estadounidense de Libertades Civiles, dijo que el nuevo estudio muestra que la tecnología no está lista para un despliegue amplio.

 

Publicidad

"Incluso los científicos del gobierno ahora están confirmando que esta tecnología de vigilancia es defectuosa y parcial", señaló Stanley en un comunicado.

 

"Una coincidencia falsa puede conducir a que una persona pierda su vuelo, sea sometida a largos interrogatorios, colocada en listas de vigilancia, sea detenida por motivos erróneos o algo peor".

 

Publicidad

 

 

Publicidad

 

 

  • Publicidad