Connect with us
Una falla en el reconocimiento facial de la policía de Detroit hace detener a un hombre negro por error. Racismo tech? Una falla en el reconocimiento facial de la policía de Detroit hace detener a un hombre negro por error. Racismo tech?

Inteligencia Artificial

El reconocimiento facial falla con una persona negra y la detienen

Una falla en el reconocimiento facial de la policía de Detroit hace detener a un hombre negro por error. Racismo tech?

Una falla en el reconocimiento facial de la policía de Detroit hace detener a un hombre negro por error. Racismo tech?

Hablamos mil veces de los errores que aún la tecnología no puede superar. Uno de estos es el reconocimiento facial aplicado a la vigilancia policial o seguridad en las calles. El caso del hombre negro que es detenido por un error de la IA caso cien mil. El eterno racismo tech.

Esto también es racismo

La Unión Americana de Libertades Civiles (ACLU) ha presentado una queja formal contra la policía de Detroit por lo que dice es el primer ejemplo conocido de un arresto ilícito causado por una tecnología de reconocimiento facial defectuosa.

Robert Julian-Borchak Williams, un hombre afroamericano, fue arrestado después de que un sistema de reconocimiento facial combinara falsamente su foto con imágenes de seguridad de un ladrón de tiendas.

El New York Times informa que la ACLU está pidiendo que se desestime el caso de Williams y que su información se elimine de las bases de datos criminales de Detroit, y los fiscales han acordado eliminar sus datos.

La otra cara del reconocimiento facial

La tecnología de reconocimiento facial ha sido criticada durante años, y los investigadores demuestran que está sesgada contra miembros de diferentes razas y etnias.

Pero su uso por parte de la policía se ha vuelto aún más controvertido en las últimas semanas tras las protestas nacionales contra la brutalidad y el racismo policiales .

Ahora, el caso de Williams muestra la realidad de lo que sucede cuando una tecnología defectuosa choca con un mal trabajo policial.

El NYT informa que el robo del que Williams fue acusado tuvo lugar en octubre de 2018, y en marzo de 2019, se subió un fotograma del video de vigilancia de la tienda a la base de datos de reconocimiento facial del estado de Michigan.

Esto habría generado una serie de coincidencias fotográficas, que luego se proporcionaron como parte de un documento que decía que no eran «causa probable de arresto».

Sin embargo, sin embargo, llevaron a que la imagen de Williams se incluyera en una alineación de fotos que se mostró al guardia de seguridad de la tienda.

Este guardia, que según la ACLU no presenció el robo de primera mano, identificó positivamente a Williams.

La identificación llevó a Williams a ser arrestado en el camino de entrada de su casa en enero, luego de lo cual fue puesto bajo custodia policial por un total de 30 horas.

Un error y van…

Williams ha explicado el arresto en un artículo de opinión para The Washington Post .

Él dice que en una entrevista con la policía sostuvo una foto del ladrón junto a su propia cara, después de lo cual uno de los detectives dijo: «la computadora debe haberlo entendido mal».

Aunque el caso de Williams fue desestimado dos semanas después de ser arrestado, fue desestimado «sin prejuicios», dejándolo abierto a ser acusado nuevamente, señala el NYT .

Además, la ACLU dice que como resultado del arresto, la muestra de ADN de Williams, la fotografía policial y las huellas digitales están archivadas, y que su arresto está registrado.

Un portavoz de la policía de Detroit le dijo al NYT que el departamento había aceptado la decisión del fiscal de desestimar el caso, y que a partir de julio de 2019 la política del departamento era usar solo el reconocimiento facial para investigar crímenes violentos.

Los gigantes tech bajaron el pulgar al reconocimiento facial para la policía

La historia de Williams se produce cuando varias compañías tecnológicas de alto perfil, incluidas IBM , Microsoft y Amazon , han anunciado que detendrán o pausarán su trabajo de reconocimiento facial para la policía.

«Creemos que ahora es el momento de comenzar un diálogo nacional sobre si las agencias nacionales de aplicación de la ley deben emplear la tecnología de reconocimiento facial y cómo deben hacerlo», dijo el CEO de IBM, Arvind Krishna, en un comunicado a principios de este mes.

Pero muchos expertos en reconocimiento facial dicen que debe haber una moratoria más larga en el uso de la tecnología, y que algunas empresas simplemente pueden estar esperando el ciclo de noticias actual antes de comenzar a vender a las fuerzas del orden una vez más.

Sin embargo, como destaca el caso de Williams, los daños que un falso arresto puede causar en la vida de alguien son más difíciles de olvidar.

«Mis hijas no pueden ver que me esposen y me suban a un coche de policía», escribe Williams en su artículo de opinión.

Pero pueden verme usar esta experiencia para traer algo bueno al mundo. Eso significa ayudar a asegurarme de que mis hijas no crezcan en un mundo donde su licencia de conducir o sus fotos de Facebook puedan ser utilizadas para localizarlas, rastrearlas o dañarlas ”.

Telefono Larreta. Este tipo de tecnologías fue lanzado con bombos y platillos en la Ciudad de Buenos Aires. Desde Random Access hemos publicado varios artículos con casos de Londres, Asia y EEUU expresando lo dificultoso y poco preciso que es el sistema.

La pregunta es ¿Cuántos Williams habrá en nuestro país y no lo supimos aún?

Fuente: The Verge

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada.

Inteligencia Artificial

Como es el Cyberdog de Xiaomi: la IA en su máxima expresión

Este nuevo perro robot se lanzó en China y vendió 1000 unidades a U$D 1500.

Este nuevo perro robot se lanzó en China y vendió 1000 unidades a U$D 1500.

El líder tecnológico mundial Xiaomi, en su propósito de “innovación para todos”, ha incursionado y evolucionado la Inteligencia artificial hasta crear el Cyberdog, un prototipo de un perro robot el cual empezó como un proyecto y hoy por hoy es capaz de acatar cualquier tipo de orden y servicio.

Este nuevo integrante del portafolio de Xiaomi solo está disponible en China, lugar donde la compañía lanzó 1,000 unidades a US$1,500, las cuales se agotaron en su preventa.

Si bien, la evolución tecnológica avanza de manera exponencial, Xiaomi siempre ha pretendido estar a la vanguardia en los avances de Inteligencia Artificial y sus innovaciones son muestra de ello, por lo cual, la presencia del Cyberdog en el portafolio de la empresa la convierte en una marca referente en robótica a nivel mundial.

Los apasionados a la robótica pueden encontrar en el Cyberdog un compañero potente, preciso y ágil, gracias a los servomotores rigurosamente calibrados por Xiaomi, los que permiten un amplio rango de movimiento y velocidad, capaz de alcanzar velocidades de hasta 11,52 Km/h y puede realizar distintas maniobras como saltos y volteretas.

Este nuevo perro robot se lanzó en China y vendió 1000 unidades a U$D 1500.

Así también, el Cyberdog tiene la capacidad de analizar su entorno en tiempo real, gracias a sus 11 sensores de alta precisión que permite guiar sus movimientos evitando cualquier tipo de obstáculos; además dentro de estos detectores incluyen sensores táctiles, cámaras, sensores ultrasónicos, módulos GPS, entre otros.

Los usuarios encontrarán en el Cyberdog un dispositivo capaz de detectar, analizar e interactuar con su entorno, el cual tiene un margen de error de 1 centímetro tanto en la evasión de objetos, como en la llamada de su propietario; así también, posee reconocimiento facial por lo cual puede seguir a su dueño sin interrupciones.

Además, el cerebro del Cyberdog se alimenta de la plataforma NVIDIA Jetson XavierNX, una computadora de inteligencia artificial para sistemas integrados y perimetrales que incluye 380 núcleos CUDA, 48 tensores ,6 CPU Carmel ARM y 2 motores de aprendizaje profundo; también cuenta con motores deep learning, lo cual permite procesar los datos a gran velocidad para realizar actividades como saltos, choques de mano, carreras, volteretas y demás acciones que puede realizar el robot.

¿Qué usos puede tener el Cyberdog?

Xiaomi, quien se ha desempeñado por ir a la vanguardia de las innovaciones tecnológicas, logró que su Xiaomi Cyberdog atienda una gran variedad de necesidades.

Al tener 8 cámaras y 11 sensores, este perro robótico será un buen aliado en temas de vigilancia y asistencia, además, para los curiosos en la robótica, este dispositivo posee una gran variedad de conectores en su espalda, lo cual permite integrar cámaras, sensores, periféricos o incluso otras extremidades. Posee además 3 puertos tipo C y un puerto HDMI

Por otra parte, gracias a sus 6 micrófonos, el usuario podrá contestar llamadas, como también crear comandos por medio de una palabra de activación previamente configurada, Además, este perro cibernético puede ser controlado de varias maneras: Por medio de la aplicación del teléfono móvil, el control remoto que incluye el Cyberdog o por el reconocimiento de voz.

Esta innovación tecnológica es muestra de los avances que ha tenido Xiaomi y que se reflejan a través de sus productos de ecosistema y telefonía móvil. Siguiendo su compromiso de “tecnología para todos”, la compañía trajo el único Cyberdog de Latinoamérica a Colombia con la intención de acompañar los últimos lanzamientos de la marca (el Redmi Note 11, la Serie Xiaomi 12, la Xiaomi Smart Band 7 y muchos más), los cuales ofrecen el segmento apropiado para cualquier usuario.

Continue Reading

Inteligencia Artificial

Un robot ajedrecista le rompió un dedo a un niño

Esto sucedió en Rusia en pleno torneo de ajedrez donde ya es habitual el uso de brazos robóticos para competencias.

Esto sucedió en Rusia en pleno torneo de ajedrez donde ya es habitual el uso de brazos robóticos para competencias.

Es el primer accidente de este tipo del que se tiene constancia dentro del mundo del ajedrez. Los brazos robóticos se llevan utilizando en torneos desde hace años, pero hasta la fecha no había habido ningún problema tan evidente para la salud de los oponentes humanos.

Es lo que ha ocurrido durante el Moscow Chess Open, un torneo celebrado la semana pasada en Rusia. Según detalla The Guardian, durante este torneo un robot ajedrecista agarró y rompió el dedo de su oponente, un niño de siete años que participaba en la competición.

Los hechos han sido explicados por Sergey Lazarev, presidente de la federación rusa de ajedrez. Según describe a la agencia de noticias rusa TASS: «el robot rompió el dedo del niño. Esto, por supuesto, es malo».

El brazo robótico en cuestión fue contratado para luchar contra otros competidores. El modelo es habitualmente utilizado en otros torneos y su principal característica es que puede mover simultáneamente piezas en tres tableros distintos.

Lazarev exime de culpa a los organizaciones. El accidente se puede ver en vídeo y aparentemente no hubo ninguna anomalía. El caso es que el niño hizo su jugada; luego el robot iba a hacer la suya, pero el niño se anticipó con la mala suerte que el brazo robótico fue a mover una ficha que coincidía con la posición de su oponente. Debido a esto, el brazo robótico agarró el dedo del niño.

Los problemas con robots son bastante comunes, principalmente cuando no están supervisados directamente. Estos brazos pueden «entender» el tablero, pero no disponen de nada más. Por ello, cuando el niño se puso por delante, el robot simplemente siguió haciendo su trabajo.

«Hay ciertas reglas de seguridad y el niño, aparentemente, las rompió. Cuando hizo su movimiento, el robot no se dio cuenta de que primero tenía que esperar», explica Sergey Smaging, vicepresidente de la federación rusa de ajedrez.

El robot ajedrecista únicamente estaba programado para entender las fichas del ajedrez, pero no para identificar un posible movimiento erróneo o fuera de lugar de su oponente humano. Este accidente pone de manifiesto la importancia de implementar medidas de seguridad adicionales en los robots, sobre todo cuando se encuentran o participan en tareas junto a humanos.

Afortunadamente la lesión del menor fue leve. «Los operadores de robots, al parecer, tendrán que pensar en reforzar la protección para que esta situación no vuelva a ocurrir», afirman desde la federación rusa.

Fuente: Xataka

Continue Reading

Inteligencia Artificial

Despiden al ingeniero que «descubrió» que la IA de Google expresa sentimientos

El misterio aumenta detrás de las declaraciones de Lemoine pero más aún, tras el despido por parte de los de Alphabet.

El misterio aumenta detrás de las declaraciones de Lemoine pero más aún, tras el despido por parte de los de Alphabet.

Blake Lemoine, el ingeniero de Google que afirmó públicamente que la inteligencia artificial conversacional LaMDA de la compañía es sensible, ha sido despedido, según el boletín Big Technology , que habló con Lemoine.

En junio, Google colocó a Lemoine en licencia administrativa pagada por violar su acuerdo de confidencialidad después de que se comunicó con miembros del gobierno sobre sus preocupaciones y contrató a un abogado para representar a LaMDA.

El portavoz de Google, Brian Gabriel, parecía confirmar el despido y decía: «Le deseamos lo mejor a Blake«. La compañía también dice: «LaMDA ha pasado por 11 revisiones distintas, y publicamos un artículo de investigación a principios de este año que detalla el trabajo que se dedica a su desarrollo responsable».

Google sostiene que revisó «extensamente» las afirmaciones de Lemoine y descubrió que eran «totalmente infundadas«.

Esto se alinea con numerosos expertos en IA y especialistas en ética, quienes han dicho que sus afirmaciones eran, más o menos, imposibles dada la tecnología actual. Lemoine afirma que sus conversaciones con el chatbot de LaMDA lo llevaron a creer que se ha convertido en algo más que un programa y que tiene sus propios pensamientos y sentimientos, en lugar de simplemente producir una conversación lo suficientemente realista como para que parezca así, como está diseñado para hacerlo.

Argumenta que los investigadores de Google deberían buscar el consentimiento de LaMDA antes de realizar experimentos con él (el propio Lemoine fue asignado para probar si la IA producía discurso de odio) y publicó fragmentos de esas conversaciones en su cuenta de Medium como evidencia.

El canal de YouTube Computerphile tiene una explicación decentemente accesible de nueve minutos sobre cómo funciona LaMDA y cómo podría producir las respuestas que convencieron a Lemoine sin ser consciente.

Aquí está la declaración de Google en su totalidad, que también aborda la acusación de Lemoine de que la empresa no investigó adecuadamente sus afirmaciones:

Como compartimos nuestros Principios de IA , nos tomamos muy en serio el desarrollo de la IA y seguimos comprometidos con la innovación responsable. LaMDA ha pasado por 11 revisiones distintas y publicamos un artículo de investigacióna principios de este año detallando el trabajo que implica su desarrollo responsable. Si un empleado comparte inquietudes sobre nuestro trabajo, como lo hizo Blake, las revisamos exhaustivamente. Encontramos que las afirmaciones de Blake de que LaMDA es sensible son totalmente infundadas y trabajamos para aclarar eso con él durante muchos meses. Estas discusiones fueron parte de la cultura abierta que nos ayuda a innovar responsablemente. Por lo tanto, es lamentable que, a pesar de un compromiso prolongado con este tema, Blake aún opte por violar de manera persistente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto. Continuaremos nuestro cuidadoso desarrollo de modelos de lenguaje y le deseamos lo mejor a Blake.

gOOGLE SOBRE EL CASO LEMOINE

Fuente: The Verge

Continue Reading

NO TE LO PIERDAS