No todo lo que brilla es código: las implicaciones humanas de la IA

Cuando las máquinas deciden, lo crucial es cómo elegimos usarlas.

A primera vista, nuestras ciudades parecen no haber cambiado tanto como imaginábamos hace algunas décadas. Sin embargo, debajo del pavimento y tras las pantallas algo profundo ya se transformó: la inteligencia artificial (IA) está tomando decisiones que inciden en nuestra vida cotidiana. Ya no habita solo en los equipos de los programadores: ajusta flujos, anticipa problemas… ¿y también los crea?

El brillo de la innovación esconde dudas incómodas. ¿Realmente necesitamos IA para todo? Muchas mejoras en transporte, servicios o gestión pública podrían lograrse con reformas organizacionales o mejores flujos de datos, sin depender de algoritmos complejos. En estas primeras etapas, aún no está claro qué problemas debería resolver la IA y cuáles responden solo a la fascinación tecnológica. La paradoja es evidente: la IA promete eficiencia y modernidad, pero también nos obliga a repensar para qué, cómo y en qué condiciones la estamos dejando entrar en nuestras ciudades.

A la huella física que exploramos en un artículo anterior —suelo, energía y agua— se suma otra menos visible: la de las reglas y decisiones que los algoritmos introducen en la vida urbana. Sin marcos regulatorios adecuados, transparencia y participación social, estas promesas pueden derivar en nuevas formas de exclusión y control.

Vigilancia aumentada: ¿seguridad o control?

El ámbito más controversial del uso de la IA en las ciudades es, sin duda, la seguridad. Cámaras que prometen detectar delitos antes de que ocurran, algoritmos que asignan patrullas según “zonas de riesgo”, y sistemas de reconocimiento facial que identifican personas en segundos. La narrativa suena atractiva para algunos: más control, más seguridad.

En Madrid, la llamada red “Gran Hermano” ha desplegado cámaras con IA para identificar objetos y rostros. São Paulo también cuenta con un sistema denominado “Smart Sampa” con reconocimiento facial basado en IA y la ciudad de Rosario (Argentina) inauguró recientemente un centro de lA con similares características. No obstante, si de vigilancia masiva se trata, China cuenta con la red de videovigilancia más grande y sofisticada del mundo.

El salto tecnológico no se limita a las cámaras fijas. En Chihuahua (México) la plataforma Centinela, que incorpora la construcción de un torre de vigilancia, suma 13 subcentros de mando policial que coordinan patrullas mediante algoritmos de predicción de crimen. Este tipo de soluciones se presentan como modernización tecnológica, pero plantean interrogantes éticos: ¿dónde acaba la prevención y dónde empieza el control social?

Las críticas no han tardado en emerger. En ciudades de Latinoamérica como Buenos Aires y São Paulo, los pilotos de reconocimiento facial fueron cuestionados por opacidad y discriminación, lo que llevó a exigir marcos regulatorios más estrictos. En Europa y Estados Unidos, organizaciones de derechos civiles también alertan sobre la recopilación masiva de datos biométricos sin consentimiento expreso y la falta de garantías sobre su almacenamiento y uso.

La pregunta no es si podemos vigilar más, sino si queremos habitar ciudades que lo hagan todo el tiempo. Lo que se presenta como modernización de la seguridad urbana abre cuestionamientos más profundos: ¿mejora la convivencia o solo multiplica las capas de control? ¿Estamos construyendo ciudades más seguras o simplemente más vigiladas?

Desigualdades en clave algorítmica

La IA suele presentarse como sinónimo de eficiencia y modernización, pero en la práctica puede reproducir y amplificar desigualdades sociales. Los algoritmos no son neutros: aprenden de datos que ya reflejan sesgos históricos y, cuando se aplican sin regulación suficiente, pueden tener consecuencias profundas en la vida cotidiana.

En Chicago, un estudio mostró que un sistema predictivo de crimen falló en identificar patrones confiables y tendió a concentrar la vigilancia en barrios ya históricamente sometidos a un control policial excesivo. Algo similar ocurre en algunos países de América Latina, donde la adopción de IA en fiscalías y policías se ha visto marcada por falta de transparencia y riesgo de criminalización selectiva.

Los sesgos no solo afectan a la seguridad, también se extienden a servicios urbanos básicos. Un análisis de plataformas de movilidad reveló que los algoritmos de fijación de precios podían discriminar según zonas geográficas y horarios, penalizando a quienes viven en áreas periféricas o con menor nivel socioeconómico. En el ámbito de las políticas sociales, estudios recientes muestran cómo el uso de IA para focalizar beneficios en varios países latinoamericanos refuerza exclusiones, clasificando de manera errónea a comunidades vulnerables, reproduciendo desigualdades en lugar de corregirlas.

Casos similares se han documentado en Reino Unido, donde algoritmos aplicados por el gobierno para detectar fraudes en beneficios sociales, trámites migratorios y autorizaciones de matrimonios fueron calificados de “racistas y sesgados” al afectar de forma desproporcionada a personas de nacionalidades específicas o residentes de ciertos sectores.

A estas limitaciones se suma la brecha digital. No todas las comunidades tienen el mismo acceso a conectividad, dispositivos o alfabetización tecnológica, lo que amplía aún más las desigualdades en el acceso y los beneficios que podría brindar la IA en servicios urbanos.

Estos ejemplos muestran que la promesa de eficiencia puede esconder un costo social profundo. La interrogante es si estamos delegando decisiones urbanas en sistemas que, bajo la apariencia de neutralidad técnica, reproducen desigualdades históricas. Cuando un algoritmo “optimiza”, ¿a quién está dejando fuera de la ecuación?

¿Quién escribe las reglas del juego? Gobernanza en la era de la IA

El despliegue de la IA en ciudades no depende solo de la tecnología: necesita reglas claras sobre qué usos son aceptables y cuáles son los mecanismos de rendición de cuentas. Sin estas regulaciones, el riesgo es que la innovación quede en manos de intereses privados o se utilice sin transparencia en áreas sensibles de la vida urbana.

En la Unión Europea, el AI Act se convirtió en el primer marco regulatorio integral del mundo. Clasifica las aplicaciones de IA según su nivel de riesgo: sistemas de reconocimiento facial en espacios públicos, por ejemplo, son considerados de “alto riesgo” y en algunos casos prohibidos. Esto abre un precedente global sobre cómo regular tecnologías que afectan derechos fundamentales. En América Latina, la situación es distinta. Aunque algunos países avanzan en el uso de la IA y la protección de datos personales, la mayoría carece de normativas específicas.

La gobernanza algorítmica no se limita a aprobar leyes, también implica diseñar mecanismos concretos de control. Estudios recientes proponen criterios como explicabilidad de los algoritmos, auditorías independientes y mantener un “humano en el bucle” para decisiones críticas. En ciudades como Estonia o Singapur, se han desarrollado marcos que combinan innovación con supervisión, mostrando que es posible avanzar sin perder de vista la rendición de cuentas.

El desafío urbano es doble: garantizar que la IA se despliegue con transparencia y control democrático, y evitar que la participación ciudadana se reduzca a un simple gesto simbólico. Porque la pregunta de fondo es ¿quién controla a los algoritmos que ya influyen en nuestras decisiones colectivas?

Distintas manifestaciones alrededor del mundo se han llevado a cabo para solicitar a las empresas que detengan el desarrollo de grandes modelos de IA ante la falta de una regulación segura y confiable. Foto: ZUMA Press, Inc. / Alamy Stock Photo.

Más allá del espejismo tecnológico

La IA suele presentarse como la solución mágica a los desafíos urbanos: congestión, seguridad, limpieza, energía. Sin embargo, muchas de estas promesas son más un barniz tecnológico que una transformación real. Tal como ocurrió con la ola de “ciudades inteligentes”, la experiencia demuestra que, sin una base sólida de gobernanza, financiamiento, capacidades institucionales y equidad social, los resultados terminan siendo parciales y, a veces, decepcionantes.

El riesgo de la fascinación tecnológica es confundir innovación con progreso. Una ciudad más vigilada no es necesariamente más segura; un algoritmo más sofisticado no garantiza justicia; un sistema predictivo no sustituye la necesidad de instituciones confiables. La IA urbana puede aportar valor, pero no todo lo que brilla con datos es oro; a veces, lo que parece un salto hacia el futuro no es más que un espejismo que posterga los cambios profundos que realmente necesitamos.

En varios lugares, la ciudadanía ya empieza a marcar el rumbo: ONGs que cuestionan el uso de la IA en el reconocimiento facial, tribunales que frenan proyectos opacos y comunidades que exigen transparencia. Estas voces recuerdan que el futuro urbano no se define sólo en los laboratorios o los gobiernos, sino también en la calle.

La verdadera discusión no es técnica, sino política y social. ¿Qué tipo de ciudad queremos habitar en una era de decisiones algorítmicas? Lo decisivo no es la inteligencia de las máquinas, sino la sabiduría con que las sociedades deciden usarlas. Ahí radica el desafío: que la tecnología esté al servicio de la ciudadanía y no al revés.

Este artículo forma parte de la serie “IA y Ciudades”. La colección completa reúne cuatro miradas complementarias sobre cómo la inteligencia artificial está moldeando el futuro urbano. Te invitamos a recorrerlos todos.

Parte 1: Entre el código y la calle: la nueva revolución urbana.

Parte 2: De la nube al suelo: la huella urbana de la IA.

Parte 4: De la pantalla a la ciudad real: planificar en tiempos de IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recibe nuestro resumen mensual en tu correo electrónico.

Recibe nuestro resumen mensual en tu correo electrónico.