Destacado: Pidamos más a la inteligencia artificial

IHR2019_spotlight_AI-2-3

Stefania Druga de Rumania enseña a niños sobre la programación dela inteligencia artificial (IA). Como investigadora, también ha estudiado cómo es que 450 niños en siete países perciben e interactúan con juguetes y asistentes domésticos que están conectados a la red, como Amazon Alexa o Google Home.

Los niños pueden entender más de lo que los padres creen, dice –– y agrega que el aprendizaje automático está limitado por los datos de entrenamiento con los que debes trabajar.

La filosofía detrás del software de enseñanza que elaboró es que si a los niños se les da oportunidad de intervenir en su relación con tecnologías “inteligentes”, pueden decidir activamente cómo quisieran que esas tecnologías funcionaran. Los niños reúnen datos y enseñan a sus computadoras.

Este simple enfoque es lo que necesitamos repetir con urgencia en otros ámbitos de la sociedad.

Para sortear qué consecuencias tiene la IA para la humanidad, debemos entenderla –– y luego decidir qué queremos que haga. El uso de IA aumenta rápidamente (para divertirnos, y también para la gobernabilidad, las fuerzas militares y los negocios) y no se presta suficiente atención a sus riesgos asociados.

“Sí, probablemente es IA”, dice el reverso de los sobres de Karen Hao en referencia a toda la tecnología que puede escuchar, hablar, leer, moverse y razonar. Sin necesariamente saberlo, cualquiera que use internet hoy ya está interactuando con alguna forma de automatización de IA.

Visto simplemente, el aprendizaje automático y las tecnologías de IA son apenas la siguiente generación de la computación. Nos permiten automatización, predicción y personalización más poderosas.

Estas tecnologías representan un cambio fundamental en lo que es posible con computadores en red que probablemente avanzarán aún más en nuestras vidas.

Ya sean resultados de motores de búsqueda, listas de música o mapas de rutas de navegación, estos procesos no son para nada mágicos. Los humanos codifican “algoritmos”, que básicamente son fórmulas que deciden cómo se deben automatizar las decisiones en función de los datos que se ingresan.

En el momento en que empieza a sentirse como magia es cuando hace que sean posibles cosas nuevas. This Person Does Not Exist [Esta persona no existe] es un buen ejemplo. Si visitas el sitio web y actualizas la página, te mostrará una interminable selección de caras de personas que nunca existieron. Son imágenes generadas aleatoriamente por un algoritmo de aprendizaje automático que viene de una base de datos de rostros que no existen.

Mira de cerca y notarás los errores –– orejas torcidas, cabello que no cae naturalmente, fondos borrosos. This Cat Does Not Exist [Este gato no existe] es menos convincente. Existe el potencial para que cualquier generador de fotos lo mejore con datos adicionales y asesoría. Y también existe el riesgo de que esas fotos se puedan usar para tergiversar la realidad, hasta para esas creaciones caprichosas.

Al reconocer los peligros de las aplicaciones maliciosas de tecnología similar, los investigadores de OpenAI desencadenaron una tormenta en los medios cuando anunciaron que no lanzarían la versión completa de una tecnología de IA que puede escribir automáticamente textos realistas, basados en parte en el contenido de ocho millones de páginas web. “Debido a nuestra preocupación por aplicaciones maliciosas de la tecnología, no lanzamos el modelo calificado», escribieron, y lo calificaron de experimento en “revelación responsable”.

El reconocimiento de los fallos y riesgos por abuso de tecnologías de IA no es frecuente. En los últimos diez años, las mismas grandes empresas que controlan los medios sociales y el comercio electrónico, en Estados Unidos y China, han ayudado a dar forma a la agenda de IA. A través de su capacidad de recopilar enormes cantidades de datos de entrenamiento, pueden elaborar tecnología aún más poderosa. Y lo hacen a velocidad de vértigo que parece incompatible con la preocupación real por los potenciales daños y factores externos.

Amazon, Microsoft y otros han avanzado con ventas directas de tecnología de reconocimiento facial a las autoridades policiales y de migraciones, aunque se han documentado y defendido rigurosamente complicados errores y graves riesgos para las personas de color en Estados Unidos. Dentro de las principales empresas de internet que elaboran tecnologías de IA, incluidas Amazon y Google, los empleados han hecho sonar las alarmas con más urgencia por sus preocupaciones éticas.

Los líderes de las empresas se distraen por la confianza en sus modelos de negocio, la soberbia por su precisión y lo que parece ser ignorancia o falta de cuidado de los enormes riesgos. Varias empresas, como Axxon, Salesforce y Facebook, han buscado aliviar la preocupación por controversias con juntas éticas con la finalidad de supervisar las decisiones.

Meredith Whittaker, cofundadora del instituto de investigación AI Now, llama a esto “teatro de la ética” y dice que no hay evidencia de cuáles decisiones de producto manejan o de si tienen facultad de veto. En una entrevista con Recode, Whittaker preguntó sobre las empresas: “¿Van a perjudicar a la humanidad y, específicamente a poblaciones históricamente marginadas, o van a organizar su accionar y hacer significativos cambios estructurales para garantizar que lo que creen sea seguro y no perjudicial?”.

En realidad, el anuncio de Google de una junta de ética resultó ser un gran revés en abril de 2019, y quedó desarticulada tras protestas de los trabajadores e indignación pública sobre a quién habían pedido que se uniera (y a quién no). Aunque la empresa ha actuado con franqueza sobre establecer principios para IA y ha intervenido en buenos proyectos sociales, también tiene prioridades competitivas en sus muchas iniciativas.

¿Qué desafíos éticos del mundo real podrían abordar esas juntas éticas si siguieran el consejo de Whittaker? Una idea sería cuestionar una función diaria que afecta a miles de millones de personas. Se dice que YouTube, la plataforma de video de Google, es una “madriguera de conejo” –– interminables túneles que llevan de un video a otro. Aunque YouTube lo niega, el estudio muestra que los algoritmos de recomendación de contenido avivan una crisis de desinformación y comportamiento como el de un culto sobre vacunas, cáncer, discriminación de género, terrorismo, teorías de la conspiración y [agrega un tema].

De manera similar, Pinterest y Amazon también son plataformas que impulsan la participación con aprendizaje y sugerencias de contenido nuevo e interesante. Han tenido variaciones del mismo problema. En respuesta a escándalos públicos, han anunciado iniciativas para detener el contenido antivacunas, pero hay poca evidencia de cambio real de la intención o función básica de estos sistemas.

Pero no son solamente las empresas de tecnología las que deben interrogar la ética de cómo usan IA. Son todas, desde agencias municipales y gubernamentales a bancos y aseguradoras.

En la frontera de nueve países de la Unión Europea, se probó un detector de mentiras de IA para interrogar a los viajeros. Se han desplegado sistemas para determinar la solvencia de poblaciones en mercados emergentes en África y Asia. En Estados Unidos, las aseguradoras están accediendo a datos de medios sociales para ayudar a las decisiones informadas sobre quién debería acceder a qué atención de salud. Se ha usado IA para decidir quién debería estar o no en prisión en Estados Unidos.

¿Son éticas estas implementaciones de IA? ¿Respetan los derechos humanos? Se sabe que China ha estado calificando a los ciudadanos a través de un sistema de crédito social. Las autoridades chinas están ahora atacando sistemáticamente a una minoría oprimida por medio de vigilancia con sistemas de reconocimiento facial.

¿Dónde trazamos la línea?

Básicamente hay dos desafíos distintos para el mundo ahora. Debemos arreglar lo que sabemos que estamos haciendo mal. Y necesitamos decidir qué significa para IA ser buena.

Dejar de lado a los humanos del Gobierno y de procesos de negocios puede hacer esos procesos más eficientes y ahorrar costos, pero a veces se pierde demasiado en el trato.

Casi nunca la gente pregunta: ¿deberíamos hacer esto? ¿Acaso funciona? Vale la pena preguntar si la IA se debe usar para hacer predicciones, o si debemos permitir que ingrese tan libremente a nuestros hogares.

Algunos de los peores pasos en falso han incluido datos de entrenamiento que son defectuosos o que se han usado sin reconocer los graves sesgos que influyeron en su recopilación y análisis.

Por ejemplo, algunos sistemas automatizados que analizan a los postulantes a un empleo constantemente dan puntuaciones negativas a las mujeres porque los datos muestran que es un campo actualmente dominado por hombres.

“Las categorías de una recopilación de datos son muy importantes, sobre todo cuando se divide a las personas en grupos”, dicen los autores del libro Data Feminism, que analiza cómo las decisiones tomadas a partir de datos solamente ampliarán la desigualdad a menos que se tomen medidas conscientes para mitigar los riesgos.

Parece que si lo dejamos en manos de las nueve grandes empresas que dominan el campo de IA, aumentamos el espectro de un mundo de vigilancia y conformidad controlado por las corporaciones –– sobre todo especialmente en la medida en que también falta diversidad de género, étnica y global entre sus trabajadores en todos los niveles de la empresa. Hacer que ingenieros, moralistas y expertos en derechos humanos aborden colaborativamente cómo debería funcionar la IA aumenta las oportunidades de mejores resultados para la humanidad.

Recién estamos empezando a articular una narrativa clara y convincente del futuro que queremos.

En los últimos años, ha empezado a afianzarse un movimiento para entender mejor los desafíos que presenta la IA. En diferentes maneras, especialistas en derechos digitales, tecnólogos, periodistas e investigadores en todo el mundo han instado a empresas, Gobiernos, agencias militares y policiales a reconocer dilemas, inexactitudes y riesgos éticos.

Todos y cada uno de los que estamos preocupados por la salud de internet –– debemos ampliar nuestra comprensión de IA. La IA se está entretejiendo en casi todos los tipos de productos digitales y se está aplicando en más y más decisiones que afectan a personas en todo el mundo. Para que nuestro entendimiento común evolucione, debemos difundir lo que aprendemos. En salones de clase, Stefania Druga está dejando una pequeña huella con su trabajo con grupos de niños. En Finlandia, una gran iniciativa buscó capacitar al 1 % de la población del país (55 000 personas) en los elementos de IA. ¿Qué harás tú?

¿Cómo podemos tomar decisiones e involucranos con tecnología que todavía no entendemos?

  1. Anónimo

    Porque afirmamos, que cada vez los Estudiantes saben menos sobre todo, porque saben mas sobre nada . . . bien con un ejemplo de la rutina diaria del Internauta lo sabremos porque a través del uso de los Buscadores de Contenido ( en la Web, Fotos, o Videos ) , termina en un Patíbulo Infinito, que solo invita a pasearse instintivamente de un Tutorial a otro, como si estuviésemos controlados por una fórmula de Matemática Discreta que recomienda el próximo Contenido, alimentando mas una Crisis de Información, y un Caos en las Decisiones Búsqueda de Información, donde se pasa de Internauta anárquico, al alienado, psico conducta que conspira contra la forma de pensar del Estudiante, al convertirlo en una Internauta Viral de Contenidos inútiles, o con poco valor agregado moral, o ético , pero estratégicamente muy valioso para el Mercadeo Digital.
    Igualmente sucedió con las Plataformas de Búsqueda, que comenzaron impulsando la participación con métodos de aprendizaje, y sugerencias de Contenidos, en lugar de inducir decisiones, debieron difundir información para enseñar a aprender, en lugar de promover el consumo de todo tipo de producto digital pro marca ( caso IPhone ), para no dar tiempo que el Internauta decida. Eso es mas o menos lo que entendí de su artículo.

Ver las guías de participación de la comunidad de Mozilla: [English | Español | Deutsch | Français]. Este es un espacio moderado de comentarios. Eliminaremos los comentarios ofensivos o que se desvíen del tema.