En las historias de ciencia ficción de comienzos del siglo XX, la inteligencia artificial a menudo aparecía en la forma de herramientas: enormes y estruendosas aparatos de latón y acero.

Décadas después, no se puede decir que la vida haya imitado el arte. La inteligencia artificial con la que coexistimos ahora suele estar alojada en los tableros de nuestros autos o en los altavoces controlados por la voz como el Amazon Echo. O está totalmente fuera de la vista, optimizando nuestras búsquedas en línea, detectando los reclamos de seguros fraudulentos y atiborrándonos con anuncios en línea.

Sin embargo, la inteligencia artificial de hoy imita una idea diferente de la ciencia ficción: que las máquinas inteligentes no siempre se van a usar para propósitos nobles, ni van a hacer precisamente lo que los humanos esperan.

La inteligencia artificial ya está en proceso de revolucionar la medicina, los negocios y el transporte. Pero también puede promover la información errónea y perpetuar los prejuicios, aunque esté diseñada con la mejor intención.

Meredith Whittaker es cofundadora de IA Now Institute e investigadora científica en la Universidad de Nueva York, donde analiza las implicancias sociales de la inteligencia artificial. Dice que uno de los mayores problemas con el ecosistema de la inteligencia artificial actual son los recursos necesarios para ingresar al rubro. La mayor parte de la tecnología es creada y controlada por un pequeño grupo de poderosas empresas, como Google, Amazon y Facebook en Estados Unidos, o TenCent y Baidu en China.

Meredith Whittaker
Meredith Whittaker. Foto de Justine Suzanne Jones (CC BY-SA 4.0).

“A diferencia del mito de la creación de Silicon Valley, simplemente no sería posible iniciar una empresa de inteligencia artificial en tu garaje con una computadora y una buena idea ”, dice Whittaker.

Desarrollar sistemas que sean artificialmente inteligentes requiere de un significativo poder computacional que no es barato. Además, capacitar de manera efectiva estos sistemas requiere acceso frecuente a enormes cantidades de datos — los que están disponibles para los gigantes de las redes sociales y los productores de smartphones para mercados masivos, no para pequeñas empresas o fabricantes individuales.

Luego está el componente talento: las personas con títulos de matemáticas avanzadas y ciencias de la computación tienen mucha demanda. “Hay tanta competencia entre los gigantes de la tecnología por este pequeño grupo de talento que les están pagando bonos para firmar con ellos que son dignos de estrellas de fútbol”, dice Whittaker.

El problema del prejuicio

El hecho de que un pequeño número de actores y una limitada base de talentos sea responsable de diseñar y desplegar vastos sistemas de inteligencia artificial genera condiciones para los sesgos y los prejuicios. Cuando un grupo homogéneo de personas — digamos, varones estadounidenses en Silicon Valley — desarrolla una tecnología, puede omitir los puntos de vista y necesidades de personas que están fuera de su ámbito de experiencia.

Algunos periodistas e investigadores ya han revelado varios ejemplos preocupantes de sistemas que tienen sesgos. Los algoritmos y los grupos de datos relacionados que usan las autoridades en todo Estados Unidos rutinariamente prejuzgan la probabilidad de que una persona haya cometido un delito según la raza, de acuerdo con una detallada investigación de ProPublica en 2016. En Houston, Texas, la inteligencia artificial usada para evaluar a los maestros de escuela tuvieron resultados defectuosos — y terminaron con una demanda para el distrito escolar el año pasado. Y una serie de estudios han demostrado que la tecnología de reconocimiento facial tiene más dificultades para reconocer a las personas de color y a las mujeres que para reconocer a hombres blancos.

“La diversidad en el sector de la tecnología es un gran problema generalizado, pero existencialmente importante con respecto a los impactos sociales y políticos de la inteligencia artificial”, dice Whittaker. “Debemos preocuparnos por los tipos de control posibles cuando existe un grupo pequeño y homogéneo de actores que es responsable por la tecnología que está influyendo en la vida de miles de millones de personas”, agrega.

El camino correcto hacia adelante

Abrir el espacio de la inteligencia artificial puede ayudar a abordar muchos de estos desafíos.

Crear datos de capacitación abiertos y diversos puede reducir las barreras para el ingreso de actores más pequeños que están considerando ingresar en el campo de la inteligencia artificial. Abrir caminos más efectivos para que personas de diversas extracciones prosperen en carreras relacionadas con la inteligencia artificial puede ampliar el espectro de voces involucradas. Y hacerlo más fácil para que todos, tengan o no conocimientos de tecnología, puedan entender las consecuencias de la inteligencia artificial para así ayudarnos a todos a tener una opinión sobre los roles que estas tecnologías debiesen tener en nuestras comunidades.

Los tecnólogos y los diseñadores de políticas involucrados — desde el AI Now Institute de Whittaker al Alcalde de la Ciudad de Nueva York — ya están trabajando en esto. Efectivamente, AI Now publicó recientemente un marco normativo para las evaluaciones de impacto algorítmico, diseñado para ayudar a las agencias gubernamentales centrales a usar y evaluar los sistemas automatizados más responsablemente.

Pero Whittaker dice que este es apenas un primer paso. “Necesitamos investigación, debate y discusión constantes. No creo que estemos en un punto donde podamos hablar de ‘la solución’, porque no creo que tengamos una comprensión clara del alcance de los problemas”, dice.

Whittaker dice que necesitamos responder las preguntas subyacentes — ¿quién está en mayor riesgo por sistemas sesgados e inexactos? ¿Cómo podemos saber si un sistema es justo? Y, ¿cómo, como público, decidimos después cuándo si y cuándo no debemos usar inteligencia artificial? Whittaker sugiere que las áreas con un alto riesgo de ser dañadas, como salud y educación, requieran las mayores protecciones.

“Esta industria ha gastado una cantidad significativa de energía y recursos para fomentar sistemas de inteligencia artificial y hacerlos comercializables y productos de consumo”, continúa Whittaker. “Muy poco se ha usado para entender el impacto en los contextos sociales y políticos”.

En el corto plazo, Whittaker exhorta a la cautela. “Tal vez deberíamos pensar en esperar antes usar alguna tecnología de inteligencia artificial hasta que hayamos creado la infraestructura necesaria para entenderla”, dice. “Deben existir maneras de decir: ‘No vamos a usar este sistema hasta que esté garantizado que es seguro’”.