CES 2018: Presentación de la cámara de reconocimiento facial 3D

Creo que la transición entre la segunda y la tercera etapa de aceptación de lo inevitable (ira y regateo) se desarrolla ante nuestros ojos sobre las omnipresentes cámaras inteligentes, cuya función es eliminar los últimos vestigios de privacidad en los lugares públicos.

El reconocimiento facial y la biometría son solo casos especiales de desarrollos más extensos en el campo de la visión artificial, pero son estos aspectos los que se perciben como dolorosos cuando una persona se ve oprimida por la vigilancia generalizada.

Me interesé en las redes neuronales antagónicas cuando, a fines del otoño de 2018, leí el artículo “¿Sueñan las redes neuronales con ovejas eléctricas?” (“¿Sueñan las redes neuronales con ovejas eléctricas”)? El autor analizó varios ejemplos en los que una neurona se desconcierta cuando encuentra una oveja en un entorno inusual. El siguiente ejemplo es de particular interés:

Como puede ver, tanto NeuralTalk2 como Azure “piensan estereotipadamente”: en los conjuntos de datos en los que fueron entrenados, las ovejas no trepaban a los árboles, por lo que una red vio “una bandada de grandes pájaros blancos” aquí, y la otra “una manada de jirafas”. En otro ejemplo de ataques similares a los algoritmos de visión por computadora (tales ejemplos se denominan “adversarios”), se encuentra que incluso una ligera rotación de la imagen confunde a la red neuronal:

Un revólver se convierte en una trampa para ratones, una estación de botes en una guillotina y un aparador con porcelana en un foco. Es más, en el ejemplo del aparador, incluso logro mirar este error “a través de los ojos de una neurona”, pero no puedo entender el resto de sus errores.

Los intentos de explotar vulnerabilidades similares en el reconocimiento facial se intensificaron en 2019 después de las manifestaciones en Hong Kong, cuando quedó claro que el disfraz es más efectivo que la fuerza bruta (los manifestantes intentaron romper las cámaras inteligentes). La epidemia de COVID-19 que siguió poco después y el régimen de máscaras estimularon una vez más tales estudios y, en particular, demostraron que la máscara es una protección deficiente contra las neuronas. El rostro de una persona tiene una forma característica (pómulos) y simetría, además, se detecta fácilmente con ojos simétricos y al mismo tiempo brillantes. Se publicó una traducción de un estudio interesante en Habré sobre si es fácil engañar a un algoritmo de reconocimiento facial usando una máscara médica (spoiler: no).

Detección y reconocimiento de rostros

Para empezar, distinguimos entre estas dos tareas; de hecho, difieren mucho en complejidad. Para detectar un rostro (1), basta con que el programa detecte un óvalo en la imagen y dos ojos sobre él. Pero para asegurarse de que se trata de un rostro humano, y más aún para reconocerlo, se requiere un análisis mucho más riguroso de los puntos característicos. A continuación, hablaré brevemente sobre la máscara de enmascaramiento de degradado descrita en el artículo de Bruce MacDonald.

Así, el algoritmo de reconocimiento facial tiene en cuenta la posición de muchos puntos fácilmente identificables a la vez: la pupila, el iris, los lóbulos de las orejas, las comisuras de los labios, la punta de la nariz, los pómulos, así como la distancia entre estos puntos. Por lo tanto, una máscara médica ordinaria no es el mejor disfraz. No cierra los ojos, no cierra los lóbulos de las orejas; también se conserva la simetría general del rostro. Pero en 2019, antes de la ubicuidad del régimen de máscaras, la máscara de gradiente antivigilancia fue un hallazgo realmente interesante:

El programa Python (código fuente) crea un patrón de gradiente/ruido (los llamados “histogramas de gradiente direccional”) que distribuye líneas y formas oblongas de tal manera que aparecen en la cámara de CCTV como un conjunto de caras definidas esquemáticamente. Presta atención a la imitación de los ojos y las cejas. Usando el método Q-learning, el autor también encontró una variante de mosaico de máscara con estos grupos de puntos característicos, en los que las “caras” se ven desordenadas y complican aún más la identificación del usuario de la máscara:

Aparentemente, este patrón anti-vigilancia es realmente efectivo para engañar a una aplicación simple como Snapchat o una cámara de seguridad. Sin embargo, la epidemia ha realizado ajustes en el trabajo de la visión por computadora: ahora los algoritmos están entrenados a propósito para reconocer una cara con una máscara. Entonces, en Habré en el blog corporativo “Productivity Inside”, se tradujo un artículo de Thomas Smith, quien intentó engañar a la aplicación Face ++. Este programa no solo reconoce rostros, sino que también compara rostros capturados en diferentes condiciones para comprobar si el rostro de ambas tomas pertenece a la misma persona.

La precisión del reconocimiento facial en este programa sin usar una máscara fue superior al 95 %, y varias máscaras aún no afectaron demasiado a Face ++: una máscara de niño con hocico de perro redujo la precisión del reconocimiento al 82,4 %, aunque teóricamente la “segunda cara”. debería haber desorientado el sistema. El autor sugirió que la cara se reconocía mejor, ya que la máscara (de los niños) en sí era más pequeña. Una máscara médica ordinaria redujo la precisión del reconocimiento facial al 74,7 %, que sigue siendo muy alta, y la máscara con el patrón antivigilancia anterior no ayudó en absoluto: la precisión del reconocimiento aumentó a más del 83 %. Así, en 2020, los algoritmos de visión artificial ya están explícitamente orientados al reconocimiento de máscaras. Pero el programa, en principio, no pudo detectar la cara en la foto cuando el autor, junto con una máscara médica normal, se puso unas gafas negras. Por lo tanto, ocultar la mayoría de los pómulos faciales, la nariz y la simetría ocular sigue siendo eficaz contra el reconocimiento facial.

READ
La televisión estadounidense asusta a los propietarios de teléfonos inteligentes con Android al piratear en Sochi

Es en la destrucción de la simetría facial que se centra el maquillaje de camuflaje utilizando la tecnología CV Dazzle, desarrollada por Adam Harvey. Dado que los algoritmos de reconocimiento analizan más de 60 puntos clave del rostro, el maquillaje por sí solo no es suficiente: el algoritmo es demasiado redundante. Pero el cabello postizo, postizos y ocultar al menos un ojo ayudan. Aquí están los consejos de estilo de CV Dazzle en su totalidad:

Maquillaje: Evita las cremas. Solo enfatizan los puntos clave de la cara. En su lugar, utiliza maquillajes que le den al rostro un contraste inusual tanto en color como en combinación: tonos claros sobre piel oscura y manchas oscuras sobre piel clara.

Puente de la nariz: Es necesario cerrar parcialmente la zona de la nariz. Al reconocer caras, la región donde convergen la frente, la nariz y los ojos es la más importante. La medida es especialmente efectiva contra el algoritmo de detección de rostros de OpenCV.

Ojos: Cierre parcialmente una o ambas cuencas de los ojos. La posición simétrica y el color oscuro de los ojos son las características clave que delatan el rostro.

Mascaras: en lugar de ocultar la cara con una máscara, cambie el contraste, los gradientes tonales, así como las combinaciones espaciales de áreas oscuras y claras en la cara: para hacer esto, cambie el peinado, el maquillaje, use joyas inusuales.

Cabeza: Un estudio realizado por Ranran Fan y Balakrishnan Prabhakaran de la Universidad de Texas mostró que es posible confundir el algoritmo de reconocimiento facial ocultando el contorno elíptico de la cabeza. Los peinados, los cuellos de tortuga y otras decoraciones que ocultan la forma elíptica de la cara son adecuados como camuflaje.

Asimetría: Los algoritmos de detección de rostros tienen en cuenta la simetría entre el lado izquierdo y derecho del rostro. Al elegir una imagen asimétrica, estos algoritmos pueden ser engañados.

Aquí encontramos una intersección fundamental con la experiencia de Thomas Smith: ocultamos nuestros ojos. Smith hizo esto mientras usaba anteojos negros. También sería conveniente romper la simetría ocultando un ojo:

Sin embargo, este tipo de camuflaje es una victoria pírrica porque hace que una persona sea invisible para las cámaras, pero extremadamente visible para una persona. En 2017 se inventó una versión menos llamativa del disfraz antivigilancia; fue propuesto por el ingeniero de Yandex Grigory Bakunov @bobuk. Su maquillaje para protegerse contra el reconocimiento facial está hecho con rayas y puntos brillantes; ha demostrado ser particularmente efectivo para confundir la biometría. Es decir, el maquillaje de Bakunov no evita tanto que la cámara reconozca un rostro (como recordará de los ejemplos anteriores, la cámara detectará completamente un rostro en puntos clave), pero dificulta la identificación de una persona.

Según Bakunov, el proyecto se acortó después de recibir los primeros resultados positivos, ya que la tecnología puede usarse fácilmente para el mal. Pero destaca otra vulnerabilidad importante: los algoritmos de reconocimiento facial se basan tanto en la simetría de los ojos que pueden ser sorprendidos haciendo precisamente eso. Científicos chinos han demostrado que un dispositivo de Apple que se abre identificando la cara del usuario (FaceID) puede ser fácilmente engañado colocando anteojos al dueño dormido del dispositivo, en el que se pegan dos puntos negros en lugar de las pupilas. FaceID reconoce la cara por puntos clave, pero no reconoce las pupilas como tales, solo necesita la simetría característica de los ojos y dos puntos negros en el lugar de las pupilas.

Así, para engañar a la videovigilancia, es más importante ocultar la simetría de la zona de los ojos; las gafas oscuras de la experiencia de Smith son un disfraz más efectivo que una máscara médica. En cuanto a los experimentos de Bakunov, su éxito podría deberse a la relativa imperfección de las tecnologías de reconocimiento en 2017. Si, a pesar de todo, el sistema destaca una cara entre la multitud, compararla con la foto de la base de datos es una cuestión de técnica.

READ
Revisión de video: BQ Strike Selfie Max - teléfono selfie por 10 rublos

gorra de invisibilidad

Ya en los experimentos de Harvey, se notó que el reconocimiento facial se complica mucho con un sombrero de ala. Un sombrero es el dispositivo más simple que corrige la visibilidad reflejada de los ojos; es decir, los campos bloquean parcialmente tanto la luz que ingresa al ojo como la luz reflejada por el ojo. Hasta hace poco, un sombrero era un accesorio masculino universal, en el que una persona no se destacaba entre la multitud. Por tanto, esta línea de investigación parece preferible al maquillaje-camuflaje. El primer logro en esta área es la tapa de infrarrojos:

Se utiliza un dispositivo similar para el “ataque de máscara invisible” de la IMA. Hay LED baratos disponibles en el mercado que emiten radiación infrarroja a una longitud de onda de 850 o 940 nm. Esa luz es indistinguible para los humanos, pero las cámaras de CCTV la captan perfectamente. Tal cámara descompone la cara “vista” en los canales de color R, G y B, y al mismo tiempo toda la luz infrarroja ingresa al canal R, distorsionando la imagen de la manera más fuerte. Dichos LED debajo de la visera de la gorra son prácticamente invisibles, también requieren una potencia mínima (según los autores, la batería 18650 puede soportar el LED durante al menos dos horas).

La extracción de un rostro de una secuencia de cuadros de video y la comparación del rostro encontrado con una fotografía de la base de datos se lleva a cabo mediante el método “Incrustación de rostros”. La cara se extrae de muchos cuadros de video, estos datos se convierten en vectores y luego se comparan con una fotografía de una persona, que se puede convertir en el mismo vector. Una gorra de infrarrojos le permite interrumpir este proceso desde la primera etapa, es decir, no le permite aislar una cara en una multitud.

La efectividad de dicho límite debería disminuir con la luz natural brillante y, además, lo más probable es que se nivele fácilmente cuando se integra un modo en la cámara de videovigilancia que le permitiría cortar todo el espectro infrarrojo o interpretarlo como rojo. Además, los LED pueden plantar rápidamente la visión: incluso si una persona no percibe la radiación infrarroja, en este caso una bombilla de luz brillante brilla directamente en su ojo, quemando su retina.

Conclusión

Los sistemas de reconocimiento facial y la biometría se desarrollan en paralelo con la digitalización de las credenciales humanas y, de hecho, es muy difícil contrarrestar este vector tecnológico. Creo que tales desarrollos “contradictorios” para engañar a los dispositivos de identificación tarde o temprano serán criminalizados, pero yo mismo no voy a cambiarme a la biometría todavía. En mi segundo blog sobre Habré (donde realicé traducciones técnicas), publiqué recientemente un artículo que afirma que el aprendizaje profundo ya está llegando al límite de sus capacidades técnicas, por lo tanto, antes de la invención de algoritmos fundamentalmente nuevos, la victoria final sobre tales trucos engañosos. todavía puede estar lejos. Supongo que aquí es más probable que veamos ataques mucho más peligrosos, cuando el atacante aprende a superponer virtualmente el rostro de otra persona al rostro del criminal para que aparezca una persona inocente en la película, y de esta manera uno puede intentar crear una coartada para el criminal. O puedo imaginar una mayor miniaturización de las balizas infrarrojas, incrustándolas en piercings, aretes o lentes de contacto. El maquillaje de camuflaje probablemente seguirá siendo solo el primer y relativamente “barato” paso en la historia de dicho disfraz, que, sin embargo, generó ideas y vulnerabilidades fundamentalmente importantes para los defensores de la privacidad.

La tecnología de reconocimiento facial se está utilizando en aeropuertos, bancos, estadios y redes sociales donde se le etiqueta en una foto. Con su ayuda, buscan a los delincuentes desaparecidos, identifican a los que faltan a la escuela entre los empleados y supervisan si los niños se distraen en clase.

Las cámaras están en todas partes. Cómo nos monitorean las redes neuronales, si viola nuestros derechos y cómo cambiará la tecnología aterradora en el futuro, en el material de The Guardian.

Software de reconocimiento facial: ¿qué es?

Hoy en día, la tecnología de reconocimiento facial es omnipresente. Facebook, donde te etiquetan en una foto de una reunión de la clase, la boda de tu prima o una fiesta de verano en el trabajo. Las aplicaciones para la acumulación de información están integradas en los programas de Google, Microsoft, Apple, etc.

El software de reconocimiento facial se usa en los aeropuertos, está en su teléfono y puede usarlo para desbloquearlo. Y si necesita verificar su identidad para una transferencia bancaria de £ 1,000, simplemente mire a la cámara.

Aparecen nuevas aplicaciones todo el tiempo. ¿Quieres saber quién está detrás de la puerta? El videoportero de reconocimiento facial le dirá si ha subido fotos de sus amigos con anticipación.

READ
Samsung Gear S: ¿una revolución en el mundo de los relojes inteligentes?

Se utilizan numerosos sistemas para localizar a las personas desaparecidas y atrapar a los que no se presentan a trabajar a tiempo. Los anunciantes, por supuesto, tampoco se quedan fuera. Gracias a los programas de reconocimiento facial, hoy en las vallas publicitarias aparece el producto que es de tu interés, en base a una evaluación de tu género, edad y estado de ánimo.

¿El Gran Hermano está aquí? software de reconocimiento facialherramienta de control?

En determinados casos, por supuesto. China utiliza un programa de perfiles raciales. La práctica del gobierno de usar el programa para rastrear y controlar a los musulmanes uigures ha sido muy criticada. Las cámaras de reconocimiento facial rastrean y multan a los peatones, señalan a los estudiantes cuando ingresan a una escuela y controlan sus expresiones faciales en clase para evitar distracciones.

En Rusia, la tecnología también se utiliza.

Según las fuentes, Israel está utilizando el reconocimiento facial para rastrear a los palestinos en Cisjordania. Y en el Reino Unido, la policía metropolitana y de Gales del Sur ha probado un software de reconocimiento facial para ubicar personas entre multitudes de fútbol y rugby, en las calles de la ciudad y en eventos conmemorativos y festivales de música. Taylor Swift incluso usó el programa en un concierto de California para eliminar a los asistentes no deseados.

En las tiendas, el programa se usa cada vez más para ahuyentar y atrapar a los ladrones. Ella hará su debut olímpico el próximo año en Tokio.

¿Cómo se está difundiendo la tecnología?

Los avances en tres áreas han jugado un papel importante: big data, redes neuronales convolucionales profundas y potentes GPU.

Gracias a Instagram, Facebook, Flickr, Google y otros sistemas, hay miles de millones de fotografías de rostros de personas en Internet que se han combinado en enormes conjuntos de datos. Se utilizan para entrenar redes neuronales profundas, el pilar de la inteligencia artificial moderna, para la detección y el reconocimiento de rostros. El trabajo informático de rutina generalmente se realiza en GPU, chips ultrarrápidos que están diseñados para procesar gráficos. Pero durante la última década, los sistemas de reconocimiento facial han proliferado y los datos recopilados han ayudado a las empresas a perfeccionar su tecnología.

Como funciona?

Primero, la computadora debe entender qué es una cara. Puede enseñarlo a través de un algoritmo, generalmente una red neuronal profunda, usando el ejemplo de una gran cantidad de fotos en varias aplicaciones. Cada vez que encuentra una imagen, el algoritmo estima dónde está la cara. Al principio habrá mucha basura, pero gradualmente el algoritmo mejora y eventualmente domina el arte de la detección de rostros. Este es un paso hacia la función de reconocimiento facial.

El siguiente paso es el reconocimiento. Por lo general, se utiliza una segunda red neuronal. Recibe una serie de fotografías y aprende a distinguir un rostro de otro. Algunos algoritmos mapean la cara directamente midiendo las distancias entre los ojos, la nariz y la boca, etc. Otros muestran la cara con rasgos más abstractos. De cualquier manera, la red genera un vector para cada cara, una cadena de números que identifica de forma única a la persona entre otras en el bloque de entrenamiento.

El software trabaja con materiales de video en tiempo real. La computadora escanea fotogramas de video, generalmente en lugares concurridos, como la entrada de un estadio de fútbol. Y primero detecta rostros en el cuadro y luego da vectores para cada uno de ellos. Luego, los vectores faciales se comparan con los vectores faciales de las personas en la lista de personas buscadas. Todos los partidos que superan un umbral preestablecido se clasifican y muestran.

Esta no es la única forma que utiliza la policía para reconocer rostros. Si se detecta a un sospechoso, los oficiales pueden descargar imágenes del perpetrador de una base de datos y buscar imágenes de CCTV para rastrear al sospechoso hasta la escena del crimen.

¿Qué tan exacto es esto?

Las pruebas independientes realizadas por el Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST) mostraron que entre 2014 y 2018, los sistemas de reconocimiento facial mejoraron las puntuaciones de coincidencia en una base de datos de fotos de retratos en un factor de 20. La tasa de fallas se redujo del 4 % al 0,2 % durante este período, y este aumento significativo en la precisión se debe a las redes neuronales profundas. El instituto dijo que las redes han llevado a una “revolución industrial” en el reconocimiento facial.

Pero un rendimiento tan excelente es posible en condiciones ideales: tener una imagen nítida y clara de una persona desconocida, que se coteja con una base de datos de otras fotografías de alta calidad. En el mundo real, las imágenes pueden estar borrosas o tomadas con poca luz, las personas pueden mirar hacia otro lado de la cámara, usar un pañuelo o bufanda en la cabeza, o ser mucho mayores que la foto del avatar.

READ
Inventó una nueva forma de controlar los gestos en cualquier dispositivo con pantalla

Y según pruebas realizadas por el instituto, aún con los mejores algoritmos, el sistema falla al tratar de distinguir entre los rostros de los gemelos.

¿Qué pasa con los errores del sistema?

El problema surge cuando las redes neuronales se entrenan en un número diferente de caras de diferentes grupos de personas. Por ejemplo, si un sistema se entrena en un millón de rostros de hombres blancos, pero tiene poca o ninguna utilidad para mujeres y personas de color, será menos preciso al tratar de reconocer a los dos últimos grupos. Menos precisión significa más identificaciones erróneas y, como resultado, más personas serán detenidas por error.

El año pasado, la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) descubrió que el software de Amazon llamado Rekognition identificó erróneamente a 28 miembros del Congreso como personas que habían estado bajo arresto anteriormente. Identificó de manera desproporcionada e incorrecta a afroamericanos e hispanos. Pero Amazon dijo que la ACLU simplemente estaba usando la configuración incorrecta.

El litigio también expuso fallas en el programa de reconocimiento facial. Un estudio realizado por la Universidad de Cardiff en Gales del Sur descubrió que el rendimiento del sistema NEC NeoFace disminuía cuando había muchas personas en la pantalla y funcionaba peor en días nublados y por la noche, cuando la sensibilidad a la luz de la cámara aumentaba y las imágenes se volvió más “ruidoso”.

En 55 horas de operación, el sistema detectó 2 coincidencias potenciales, de las cuales 900 fueron falsas. Según el testimonio del sistema, la policía realizó 2 arrestos, pero el informe de la universidad no dice si alguien ha sido acusado.

El Tribunal de Gales destacó otro problema en el reconocimiento facial: las ovejas. Este es el nombre de personas de la lista de sospechosos que no tienen signos especiales y se parecen a muchas otras personas. Mientras escaneaba multitudes en partidos de rugby en Gales, NeoFace detectó a una mujer en la lista de sospechosos de la policía de Gales del Sur 10 veces. Ninguno de ellos era sospechoso real.

¿Quién es el dueño de la tecnología?

Las empresas tecnológicas de todo el mundo están desarrollando software de reconocimiento facial, pero EE. UU., Rusia, China, Japón, Israel y Europa están a la cabeza. En algunos países, la tecnología se adopta más fácilmente que en otros.

En China, millones de cámaras están conectadas a software de reconocimiento facial y Rusia ha anunciado planes para usar sus propias redes para la vigilancia. En Europa, como en otros lugares, el software de reconocimiento facial se utiliza en las tiendas para disuadir a los ladrones y en las empresas para monitorear al personal y a los clientes, pero el reconocimiento facial en tiempo real en lugares públicos aún está bajo litigio.

En los EE. UU., la policía suele utilizar el reconocimiento facial para identificar a los sospechosos a partir de imágenes de vigilancia, en lugar de escanear multitudes en tiempo real. Pero aún así el sistema se está utilizando cada vez más. Según un informe de 2016 del Centro de Derecho de la Universidad de Georgetown, la mitad de todos los estadounidenses están en las bases de datos de reconocimiento facial de la policía, lo que significa que los algoritmos seleccionan a los sospechosos de 117 millones de perfiles virtuales de ciudadanos respetuosos de la ley.

¿Qué dice la ley al respecto?

Casi nada. No existe ninguna ley en el Reino Unido que otorgue a la policía el derecho a utilizar software de reconocimiento facial, ni ninguna política pública sobre su uso. Esto ha llevado al comisionado de biometría, Paul Wiles, a describir la situación como una situación en la que todos ganan para la policía, que decide cuándo y dónde usar el software de reconocimiento facial y qué hacer con las imágenes capturadas por las cámaras.

Svoboda ha pedido una prohibición total del uso del programa en tiempo real en lugares públicos, diciendo que viola el derecho a la privacidad y obliga a las personas a cambiar su comportamiento. El grupo ha emprendido acciones legales contra la Policía de Gales del Sur en relación con el uso de esta tecnología. La Universidad de Essex hizo afirmaciones similares durante una revisión independiente del uso policial del software de reconocimiento facial. Se ha demostrado que las personas han sido detenidas por error, lo que significa que la tecnología se está utilizando para rastrear a personas que no son buscadas en absoluto. En la conclusión, se dijo que el reconocimiento facial en tiempo real viola la ley de derechos humanos.

Otra área de desacuerdo son las listas de personas buscadas. A pesar de un fallo de la Corte Suprema de 2012 de que era ilegal mantener imágenes de personas inocentes, la policía construyó continuamente una base de datos de 20 millones de detenidos, muchos de los cuales nunca fueron condenados. Las fotos de la base de datos y de las redes sociales se utilizan para crear listas de personas buscadas y se utilizan en sistemas de reconocimiento facial. En los negocios privados, la situación es aún peor: los propietarios de tiendas y empresas deciden quién está incluido en las listas secretas de personas buscadas e intercambian fotos con otras empresas.

READ
Gadgets que ya he pedido en AliExpress y te asesoro

En los Estados Unidos, la situación no es mucho mejor. Solo cinco estados tienen leyes que abordan el uso de software de reconocimiento facial por parte de las fuerzas del orden. La confusión legal ha llevado al hecho de que mientras que la policía en Seattle y San Francisco tiene prohibido usar el programa en tiempo real, en la oficina del alguacil en el condado de Maricopa, Arizona, cada foto y licencia de conducir de los residentes hondureños se coteja con una lista de sospechosos a través de un software de reconocimiento facial.

¿Qué pasa con otros datos biométricos?

Por supuesto, la tecnología de reconocimiento facial está en el punto de mira, pero la policía y otras organizaciones están analizando de cerca la nueva biometría que identifica a las personas más allá de las huellas dactilares y el ADN.

Se dice que los análisis de la textura de la piel compensan los problemas cuando se trata de reconocer rostros parcialmente cerrados o distorsionados mediante el análisis de la distancia entre los poros de la piel. Este método no se ha probado con frecuencia, pero los desarrolladores dicen que es posible distinguir entre gemelos.

Otro análisis biométrico que es de interés para la policía, ya que es aplicable a distancia y sin interacción humana, es el análisis de la marcha.

Los algoritmos identifican a las personas por su estilo de zancada único, lo que refleja diferencias en anatomía, genética, origen social, hábitos y personalidad.

Los algoritmos identifican a las personas por su estilo de zancada único, lo que refleja diferencias en anatomía, genética, origen social, hábitos y personalidad.

También existe el reconocimiento de venas, donde los escáneres ópticos mapean los vasos sanguíneos en la mano, el dedo o el ojo. Se cree que los escáneres son difíciles de engañar, ya que nuestras venas se encuentran debajo de la piel. El sistema PalmSecure de Fujitsu utiliza mapas de venas para monitorear a los empleados en todas las empresas.

Los bancos y el Ministerio de Impuestos y Derechos ya utilizan la identificación por voz para verificar la identidad. A diferencia del reconocimiento de voz, que traduce los sonidos en palabras, la identificación de voz detecta los patrones acústicos únicos creados por el tracto vocal y los hábitos del habla de una persona.

¿Qué será lo próximo?

Es posible que esta tecnología se vuelva omnipresente. La firma estadounidense Vuzix se ha asociado con la firma NNTC con sede en Dubái para producir gafas inteligentes de reconocimiento facial. Insertada en el marco hay una pequeña cámara de ocho megapíxeles que escanea los rostros de los transeúntes y alerta al usuario sobre cualquier coincidencia en una base de datos de un millón de personas. En el Reino Unido, la videovigilancia inalámbrica funciona con cámaras corporales policiales, que hacen prácticamente lo mismo. En los EE. UU., recientemente se patentó una cámara corporal policial que comienza a grabar cuando se identifica el rostro de un sospechoso.

Mientras tanto, las empresas tecnológicas están mejorando sus sistemas para trabajar más rápido, con más rostros y con imágenes cada vez más complejas, tomadas con poca luz o con personas cubriéndose la cara. Se está trabajando en algoritmos que podrán identificar a las personas que usan máscaras y se disfrazan. Para que los sistemas de reconocimiento sean aún más efectivos, la biometría facial se combinará con otros análisis biométricos, como la voz y la marcha.

Como era de esperar, se ha iniciado una carrera armamentista: los investigadores de la Universidad Carnegie Mellon en Pittsburgh han desarrollado sus propias gafas de sol para engañar a los sistemas de reconocimiento facial, y una de las evaluadoras con gafas ha sido identificada como Mila Jovovich.

Traducción de María Stroganova

Tenemos una pequeña solicitud. Esta historia fue contada gracias al apoyo de los lectores. Incluso la donación mensual más pequeña ayuda al trabajo editorial y crea contenido importante para las personas.

Nuestros lectores han estado apoyando a Pravmir durante 18 años. Gracias a esto, salió el material que ahora está frente a ustedes.

Y ya que está aquí, tenemos una pequeña solicitud: regístrese para una donación regular que pueda pagar. Incluso una pequeña contribución es una oportunidad para seguir hablando de lo que es importante para cada persona.

¡Gracias por leer hasta el final! Nuestros corresponsales, fotógrafos y editores trabajan gracias al apoyo de nuestros lectores.

Pravmir lleva 18 años hablando de personas y problemas que nos conciernen a cada uno de nosotros. Incluso una pequeña donación regular son nuevas historias que ayudan a las personas.

Rating
( No ratings yet )
Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: