Vigilar es Ley en la CABA
por María Miel Griguoli – Mariane Pécora
El poder funciona como una maquinaria, no se detenta ni se transfiere. Por las técnicas de vigilancia, se realiza una física del poder, dominio óptico y mecánico del cuerpo según un juego de espacios, líneas, pantallas, haces, grados y sin recurrir, al principio por lo menos, al exceso, la fuerza, la violencia.
Michel Foucault – Vigilar y castigar
En el espacio público de la Ciudad de Buenos Aires existen 10 mil cámaras de vigilancia que almacenan datos e imágenes de todas las personas que habitamos o transitamos por este territorio. Este cúmulo de información da cuerpo al denominado proceso de reconocimiento facial.
Fuertemente cuestionada por organismos de derechos humanos y prohibida en varios países del mundo, en 2019 la Ciudad de Buenos Aires puso en marcha la tecnología del reconocimiento con la excusa de “prevenir el delito”. Floja de papeles, equívoca e intimidatoria, esta medida se mantuvo al borde de la ilegalidad hasta octubre del año pasado, cuando la Legislatura porteña reguló su uso.
Con el propósito de trazar una línea divisoria entre seguridad y libertad, la diputada Claudia Neira de la minoría opositora (por el Frente de Todos), presentó una iniciativa que pretendía “contribuir al uso racional en el uso de los sistemas de video vigilancia”. La propuesta se convirtió en un bumerán para la legisladora. En manos de la mayoría oficialista, esta iniciativa sirvió de puntapié para modificar la Ley de Seguridad Pública y regular el sistema de reconocimiento facial en el territorio porteño, según las intenciones de Larreta – Santilli.
Para profundizar sobre la implicancia de esta política de seguridad y la polémica que existe en torno, Periódico VAS conversó con el científico Alfredo Moreno, especialista en inteligencia artificial, computador científico egresado de la Facultad de Ciencias Exactas y Naturales y analista de sistemas, que se desempeña como ingeniero en Tecnologías de la Información y la Comunicación (TIC) en ARSAT y como docente en la Universidad de Moreno.
¿Qué sucede cuando se pone en juego la privacidad de los ciudadanos en nombre de la seguridad?
El tema de las cámaras de seguridad responde a un modelo de control ciudadano. Las cámaras hacen la captura de nuestros datos sin nuestro consentimiento. No sabemos para qué se usa esa información, ni cuánto de esa información queda almacenada para ser analizada en términos de seguridad o de inseguridad.
Las cámaras están operadas por un software determinado por algoritmos que responden a un modelo de datos inducido y sesgado de antemano. Por ejemplo, si vemos a un ciudadano con determinadas características físicas: morocho, con gorrita, piercing, tatuaje y ropa informal, de inmediato lo asociamos con alguien que nos quiere robar; esto sucede porque existe un prototipo de inseguridad impuesto a través de medios masivos de comunicación social.
Los algoritmos están definidos por ciertas personas; y las definiciones están determinadas por la cultura, la visión política, social, económica y humana que estas personas tienen sobre el territorio que vigilan. Una cosa es el uso de las cámaras en una situación de inseguridad, por ejemplo: un robo en la calle. Y otra cosa es el uso del reconocimiento facial, con los prototipos de las personas peligrosas “naturalizados” a través de los medios masivos de comunicación. Es decir, ese modelo de datos ya está inducido y sesgado desde la comunicación social.
Los medios masivos de comunicación profundizan el prototipo de la persona peligrosa, el discurso que constantemente transmiten abre una brecha entre qué personas son consideradas peligrosas porque cumplen con los estereotipos establecidos, y cuáles no.
¿Considera que estos sistemas de control aumentan y refuerzan los mecanismos de segmentación, discriminación y racismo?
La sociedad con mayor desarrollo de vigilancia ciudadana se encuentra en China. Uno puede pensar que eso no es malo ni bueno en sí mismo, sino que depende de la implementación social que se hace de esta vigilancia. China ha demostrado que con esta técnica de vigilancia ha avanzado muy rápidamente en cuestiones epidemiológicas. En el caso del Covid 19, por ejemplo, logró advertir la traza de los casos positivos y crear alertas inmediatas para las personas de su entorno. Por otra parte, China tiene un sistema de evaluación del comportamiento ciudadano con puntajes abiertos que habilitan para conseguir determinados beneficios, como becas de estudios, créditos bancarios, transporte subvencionado, etc. Se trata de una información abierta, y cada ciudadano o ciudadana sabe que es controlado y para qué. El problema de la Ciudad de Buenos Aires es que la vigilancia actúa solamente como un mecanismo de control. Se trata de un despliegue preventivo en función de las características prefabricadas (o convenientes para el Poder) de lo que se considera como una persona peligrosa.
Como sociedad, deberíamos exigir al Estado que informe a la ciudadanía qué uso se hace del registro de datos de las cámaras de seguridad y qué destino les da a los mismos.
¿Cómo se trabajan estos proyectos en la Legislatura porteña? ¿Hubo algún análisis técnico de la propuesta?
Hubo análisis y comisiones de trabajo. La iniciativa fue presentada por la minoría (Frente de Todos) con la intención de llenar los vacíos legales en el manejo de estas tecnologías. Lo cierto es que en manos de la mayoría oficialista (Juntos por el Cambio, Coalición Cívica, UCR y Evolución Ciudadana) esta propuesta derivó en la incorporación del sistema de reconocimiento facial en la Ley de vigilancia pública. Al revés de lo que quería la diputada Neira. Una bochornosa naturalización de la vigilancia ciudadana.
¿La sociedad fue partícipe? ¿Puede participar? ¿Sabe cómo hacerlo?
No, no hubo debates con la sociedad. Para debatir en profundidad sobre estas tecnologías hay que conocerlas: saber cuáles son sus riesgos, cuáles son los procesos y desde ahí alimentar una discusión política seria. Lamentablemente, la discusión que se dio en la Legislatura porteña fue muy pobre.
Hace tiempo que, desde la organización TIC DATA, venimos impulsando en distintos países la iniciativa para que los datos obtenidos por la cámaras de vigilancia, y los obtenidos en los sitios de internet y en las redes sociales, sean publicados en una web ciudadana de forma obligatoria. Hoy, los datos son un recurso estratégico, configuran el motor de la economía digital. De manera que en materia de derechos ciudadanos, necesitamos tener un lugar donde encontrar los datos que se recopilan, saber qué se hace con esa información y saber cuáles son los algoritmos que se utilizan para conseguirla.