Transparencia y Toma de decisiones en la era de la Inteligencia Artificial

El objetivo de este artículo es abrir el debate sobre el creciente uso de la Inteligencia Artificial por parte de los Estado y sus posibles consecuencias.

Desde hace unos años la palabra Inteligencia Artificial empieza a resonar en todos los aspectos de la vida social y es una tecnología que está generando grandes disrupciones tanto en el sector privado como en el público. En el mundo son muchos los ejemplos de aplicación tecnológica y es inevitable que, poco a poco, empiecen a usarse cada vez más en nuestro país.

La Inteligencia Artificial es un término que se utiliza para describir aquellos algoritmos (programas de computadora) que utilizan un registro de datos del pasado para “automáticamente” entender qué pasó y en base a esa experiencia tratar de entender si estas mismas cosas pueden volver a pasar en un futuro («predecir»). 

La Inteligencia Artificial se utiliza, entre otras cosas, para agilizar y automatizar procesos teniendo como beneficio directo una reducción en tiempo y costos. Es muy importante centrar el debate de cuándo estos procesos que queremos automatizar llevan a tomar decisiones en el Sector Público: ¿En base a qué criterios estos algoritmos toman decisiones y cómo afecta a la ciudadanía?

Hace unos meses hubo una fuerte discusión en las redes sociales luego de los anuncios del Gobernador de Salta, Juan Manuel Urtubey, sobre el uso de un algoritmo que le permitía predecir el embarazo adolescente: «Hoy podés prever, con la tecnología, cinco o seis años antes, con nombre, apellido y domicilio, cuál es la niña que está en un 86 por ciento predestinada a tener un embarazo adolescente», dijo en el programa El Diario de Mariana.

Pues bien: ¿Quién diseñó esa tecnología? ¿Qué criterios de instrumentación se utilizaron? ¿En base a qué datos? ¿Es auditable? ¿Cualquier ciudadano puede saber cómo y porqué se tomó la decisión de que X persona tiene riesgo de embarazo adolescente? ¿Porqué se consideró que A tenía riesgo y B está excluido? ¿Qué política concreta de transparencia existe para asegurarnos de que las personas que se ven afectadas por una decisión o información que arroja un algoritmo entienda realmente porqué están siendo afectadas? Y entiéndase el concepto de “afectada” como aquella persona que fue asistida por el Estado por detectar que tiene riesgo de embarazo adolescente y también aquella persona que NO fue asistida debido a que el algoritmo ignoró y no alertó situación alguna. ¿Y si realmente esta segunda adolescente necesitaba contención y por error “de la inteligencia artificial” se le negó ayuda? Preguntas claves que hay que desmenuzar a fondo porque los algoritmos generan información para la toma de decisiones concluyen en acciones e intervenciones concretas sobre los ciudadanos.

Las preguntas siguen tomando relevancia a medida que se empiezan a aplicar estas tecnologías a otros aspectos como por ejemplo el otorgamiento o no de un subsidio, el ingreso o no a un programa social, la obtención o no de una beca, el acceso o no a un crédito de la banca pública. Hay que señalar expresamente que existe un riesgo enorme de automatizar los sesgos y discriminaciones ya existentes en la manera en que se toman las decisiones. Los algoritmos son creados por personas utilizando datos del pasado y si fuimos racistas, xenófobos o machistas existe el riesgo de que estos algoritmos se conviertan en máquinas automáticas de replicar estereotipos y discriminaciones.

Los usos y escenarios donde se pueden aplicar este tipo de tecnologías son enormes y realmente los avances en materia de Inteligencia Artificial pueden aportar muchísimo valor a la gestión pública pero dicho avance debe hacerse con cuidado teniendo en cuenta que, en muchos casos, se trata de datos privados de las personas y que las decisiones que se toman en base a dicha información tiene impacto directo sobre los ciudadanos.

Desde Open Data Córdoba nos alineamos a nuestros principios de transparencia y adopción de software libre por parte de los estados y organismos estatales. Consideramos que un gran paso para generar transparencia en la toma de decisiones a través de información que genera la Inteligencia Artificial es que dichos programas sean de Código Abierto y auditables. No nos oponemos al uso de estas tecnologías pero si consideramos que su implementación debe darse en el marco de un debate público que integre a miembros de la Sociedad Civil, Universidades, público en general, y se incorporen al mismo implicaciones éticas y legales de su implementación.