Prohíbase en el ámbito de la Ciudad de Buenos Aires el Sistema de Reconocimiento Facial y todo programa o mecanismo análogo que permita identificar a las personas mediante sus rasgos faciales o datos biométricos

  • Libertades democráticas
Presentado por:   
  • Legislatura CABA

Expediente 1123-D-2022

PROYECTO DE LEY

Artículo 1°.- Prohíbase en el ámbito de la Ciudad de Buenos Aires el Sistema de Reconocimiento Facial y todo programa o mecanismo análogo que permita identificar a las personas mediante sus rasgos faciales o datos biométricos.

Dentro de los 30 (treinta) días de sancionada la presente ley, el Gobierno de la Ciudad deberá eliminar y remover, según corresponda, todo software, dispositivo, información y datos personales que posea como consecuencia del referido sistema.

Artículo 2°.- Rescíndase la Contratación Directa N° 2900-0472-CDI19, adjudicada a la empresa Danaide S.A., cuyo objeto es la contratación de un servicio de análisis integral de video para permitir el reconocimiento facial

Dentro de los 30 (treinta) días de sancionada la presente ley, dicha empresa deberá eliminar y remover, según corresponda, todo software, dispositivo, información y datos personales que posea como consecuencia del referido sistema.

Artículo 3°.- Deróguese la Ley Nº 6.339 la Resolución N° 398/2019 del Ministerio de Justicia y Seguridad y toda otra norma que se oponga a la presente ley.

FUNDAMENTOS

Señor Presidente:

Traemos a consideración de este cuerpo un proyecto que busca prohibir en el ámbito de la Ciudad de Buenos Aires el Sistema de Reconocimiento Facial y de todo mecanismo análogo que permita identificar a las personas mediante sus rasgos faciales. Se plantea derogar la Ley 6.339 y la Resolución N° 398/2019 del Ministerio de Justicia y Seguridad – que implementó el sistema en cuestión – y de todo otra norma que consagre o regule dicho sistema. Como consecuencia de dicha derogación, se plantea rescindir la Contratación Directa N° 2900-0472-CDI19, adjudicada a la empresa Danaide S.A., dado que el objeto de la misma es la contratación de un servicio de análisis integral de video y la aplicación del referido sistema de reconocimiento facial.

El sistema de reconocimiento facial implementado y regulado por la legislación referida y que este proyecto busca derogar derivó  en abusos gravísimos por parte del Ministerio de Justicia y Seguridad de nuestra Ciudad. En efecto a partir de la investigación llevada adelante en el marco de la causa “OBSERVATORIO DE DERECHO INFORMATICO ARGENTINO O.D.I.A. y otros C/ GCBA S/AMPARO”, Expte. 182908/2020, recientemente se conoció que a través de un convenio firmado entre el Gobierno de la Ciudad con el  ReNaPer, se habilitó a la Policía de la Ciudad el acceso a los datos biométricos e información de personas que se encontraban prófugas de la justicia para incorporarlo a un software de reconocimiento facial de las capturas realizadas por las miles de cámaras que están en la Ciudad. Pero lo que constató la investigación judicial referida es que entre abril de 2019 y marzo de 2022, la Ciudad, con el evidente fin de realizar tareas de espionaje ilegal por razones políticas y de persecución a personas por ser referentes de organismos de Derechos Humanos y sociales.  El Gobierno de la Ciudad, a través de la Policía porteña, hizo casi 10 millones de consultas sobre 7,5 millones de personas. Es decir que solicitó y obtuvo una migración de datos personales y biométricos completamente injustificada e ilegal afectando a millones de personas en el marco de la utilización del sistema de reconocimiento facial y el uso indiscriminado de video vigilancia sobre un población que mas que duplica la población de nuestra ciudad mientras que las personas incluidas en los listados de la CONARC no superan las 40.000.

En la resolución de la causa citada se estableció que, entre otros, fueron “espiados” usando esta migración de datos Alberto Fernández, Cristina Kirchner, Juan Grabois, Elisa Carrió, Pablo Moyano, Estela de Carlotto, Néstor Pitrola y los diputados nacionales Myriam Bregman y Nicolás del Caño, del Frente de Izquierda. De muchos de ellos se realizaron una cantidad de migraciones de datos a repetición, indicando lo deliberado e inusitado del uso del sistema para la vigilancia de determinadas personas. 

Estos burdos y condenables abusos, ahora constatados mediante una investigación judicial y los informes brindados por las entidades públicas involucradas, fueron posibles gracias a la vigencia de un sistema que abre la puerta a las más diversas violaciones a diversas garantías reconocidas constitucionalmente. Los mismos  vienen a comprobar que la Resolución N° 398/2019 del Ministerio de Justicia y Seguridad de la Ciudad y la Ley Nº 6.339 establece un sistema cuestionado en todo el mundo por ser altamente impreciso, generando muchos falsos positivos (personas detenidas por errores del sistema, donde el sistema “marca” a una persona que no es la del registro). Según denuncian los abogados de Observatorio de Derecho Informático Argentina (ODIA), que promovió una investigación judicial referida anteriormente, la efectividad del sistema implementado es de un 52 %. Es decir la cantidad de falsos positivos es enorme. Pero lo que resulta aún más ilustrativo es que los falsos positivos se dan con mayor frecuencia en personas de tez oscura. Esto es así ya que el sistema utiliza algoritmos que son programados con determinados “sesgos”  y que los datos relacionados con los porcentajes sobre los falsos positivos evidencian que los mismos son de un marcado rasgo racista, provocando casos de discriminación por rasgos fisonómicos.

El sistema permite una vigilancia masiva y automatizada inédita y resulta de una seria afectación sobre el derecho a la protesta subproducto de la utilización del sistema sobre los referentes sociales y los manifestantes en general. En efecto se conoció la migración ilegal de datos de personalidades políticas, judiciales, periodísticas y también de múltiples referentes sociales.  Por esto mismo el sistema posee denuncias por haberse utilizado para criminalizar la protesta social en Hong Kong y en Estados Unidos, durante las protestas por el brutal asesinato de George Floyd.

La persecución a la protesta social con estos mecanismos ya ha ocurrido en el país: las cámaras que el gobierno de la Ciudad compartía con AFI han sido utilizadas, por ejemplo, para seguir a los trabajadores del Astillero Río Santiago, mientras manifestaban en Congreso contra la Ley de Presupuesto en octubre de 2018.

La proliferación masiva de cámaras de video vigilancia, además de promover un negocio multimillonario a favor de las empresas del rubro de la seguridad, habilitan la instalación de las mismas en lugares también útiles para llevar adelante tareas de espionaje  político. 

Diversas asociaciones y organizaciones de Derechos Humanos también han presentado, ante este mismo cuerpo, fuertes críticas al Sistema de Reconocimiento Facial.

Beatriz Busaniche, en representación de la Fundación Vía Libre, denunció que el “uso de tecnologías de reconocimiento facial para identificar personas buscadas por la justicia supone la identificación constante de toda persona que transite por el espacio monitoreado, esto supone un efecto directo sobre las personas ante la posibilidad de ser monitoreadas, perder su derecho a circular en anonimato y ser identificadas limitando la libertad de circulación, la libertad de reunión y comprometiendo la privacidad de esas personas. A su vez, impacta en el debido proceso y la presunción de inocencia, ya que cuando el sistema automatizado dispara una alerta, queda en cabeza de la persona sindicada probar su inocencia y/o demostrar el error” y solicitó que se “promueva una moratoria y/o una prohibición directa del uso de estas tecnologías en defensa de los derechos de la ciudadanía de la Ciudad Autónoma de Buenos Aires y de todas aquellas personas que transitan por ella cotidianamente”.

La Asociación por los Derechos Civiles (ADC) destacó que este sistema “ha potenciado la vigilancia del espacio público como nunca antes”, dado que  “el reconocimiento facial presenta serios problemas y desafíos. No solo para los derechos a la privacidad y la protección de datos personales, sino también para garantías constitucionales como la presunción de inocencia y el debido proceso, los derechos a la no discriminación, a la libertad de expresión, de reunión y de asociación.”. Por tal motivo, esta Asociación aconsejó “dejar de utilizar, y suspender en el futuro inmediato, cualquier implementación de tecnologías de reconocimiento facial con fines de vigilancia en el espacio público”.

En similar sentido, la organización Acces Now planteó que los problemas en el sistema “dan lugar a un potencial uso arbitrario y abusivo de la tecnología de reconocimiento facial. Por estas razones, muchos países y gobiernos locales del mundo han suspendido su utilización hasta tanto existan salvaguardas suficientes para evitar producir daños, mientras que otros incluso han prohibido su uso”, añadiendo que a ello “se suma a la falta de información sobre cómo fueron adquiridos estos sistemas, cómo se utilizan, la ausencia de estudios de impacto sobre derechos humanos y de protocolos para disminuir los riesgos que implican”.

La postura y exigencia de prohibición de estas organizaciones ha sido receptada en distintas partes del mundo. Así, San Francisco fue la primera ciudad en prohibir la tecnología de reconocimiento facial en EE UU. También lo hicieron varias ciudades, que prohibieron el uso mediante ordenanzas municipales: Berkeley, Oakland y Alameda. En el estado de Massachusetts, se sancionaron ordenanzas similares en Easthampton, Boston, Springfield, Cambridge, Northampton, Brookline y Somerville.

Por su parte, en agosto 2020 la Corte de Apelaciones del Reino Unido falló a favor de una demanda contra el uso de reconocimiento facial en vivo por la Policía de Gales del Sur.

En síntesis, y en consonancia con las posturas y tendencias descriptas a lo largo del presente proyecto y las que expondremos durante su tratamiento es que solicitamos la aprobación del presente proyecto de ley.