La inteligencia artificial y el aprendizaje automático alimentan los sistemas que utilizamos para comunicarnos, trabajar e incluso viajar. Pero el sesgo se filtra en los datos de maneras que no siempre vemos. He aquí por qué el sesgo de bloqueo es crítico, y cómo hacerlo.

    A medida que la IA se entrelaza cada vez más con nuestras vidas, alimentando nuestras experiencias en el hogar, el trabajo e incluso en la carretera, es imperativo que nos preguntemos cómo y por qué nuestras máquinas hacen lo que hacen. Aunque la mayoría de la IA opera en una «caja negra» en la que se oculta su proceso de toma de decisiones -piense, ¿por qué mi GPS me ha desviado?

    Pero esa transparencia no es todo lo que queremos: También debemos asegurarnos de que la toma de decisiones en materia de IA sea imparcial, a fin de confiar plenamente en sus capacidades.

    El tema de la parcialidad en la industria de la tecnología no es un secreto, especialmente cuando se trata de la subrepresentación y la disparidad salarial de las mujeres. Pero el sesgo también puede filtrarse en los mismos datos que el aprendizaje automático utiliza para entrenar, influyendo en las predicciones que hace.

    «Cada vez que se dispone de un conjunto de datos de decisiones humanas, se incluyen los prejuicios», dijo Roman Yampolskiy, director del Laboratorio de Ciberseguridad de la Universidad de Louisville. «A quién contratar, notas de los ensayos de los estudiantes, diagnósticos médicos, descripciones de objetos, todo contendrá alguna combinación de prejuicios culturales, educativos, de género, de raza u otros.»

    Entonces, ¿cómo han impactado exactamente los datos sesgados en los algoritmos?

    Más información sobre innovación

    Después de la publicación de Pokémon Go, varios usuarios observaron que había menos Pokémon en los barrios principalmente negros. Eso es porque los creadores no pasaban tiempo en esos barrios. «Fue un sesgo que surgió por el hecho de que las personas que escribieron estos algoritmos no eran un grupo diverso», dijo Anu Tewary, director de datos de Mint en Intuit.

    Tewary señaló varios otros ejemplos de sesgo en el aprendizaje automático. En LinkedIn, por ejemplo, se descubrió que los trabajos bien remunerados no se mostraban con tanta frecuencia para las mujeres como para los hombres. «Una vez más, fueron los prejuicios que surgieron de la forma en que se escribieron los algoritmos. Los usuarios iniciales de las características del producto eran predominantemente hombres para estos trabajos bien remunerados, por lo que terminaron reforzando algunos de los sesgos», dijo.

    El software de reconocimiento facial de Google también ha experimentado problemas con los prejuicios raciales. Cuando fue desplegado inicialmente, marcaba muchas caras negras como gorilas. «Ese es un ejemplo de lo que sucede si no hay caras afroamericanas en el equipo de entrenamiento», dijo Tewary. «Si no hay afroamericanos trabajando en el producto. Si no hay afroamericanos probando el producto. Cuando tu tecnología se encuentre con caras afroamericanas, no sabrá cómo comportarse».

    VER: Grandes datos pueden revelar estereotipos inexactos en Twitter, según el estudio de UPenn (ConsejoTecnologico.com)

    No es hasta que el algoritmo se usa «en la naturaleza» que la gente descubre estos sesgos incorporados, que luego se amplifican, dijo Tewary. En Intuit, ella dedica mucho esfuerzo a prevenir que los datos sesgados sean utilizados en los productos de la compañía.

    Diversificar la tecnología y reducir los sesgos

    Tewary tiene una formación en física y matemáticas, con una licenciatura en informática del MIT. Después de trabajar en la empresa de publicidad móvil AdMob, que fue adquirida por Google, Tewary dijo que comenzó a notar ciertas tendencias en torno a las mujeres y la tecnología. Las mujeres y las niñas que fueron las primeras en adoptar la tecnología «tendieron a verse a sí mismas como consumidoras de tecnología, especialmente de tecnología móvil», dijo Tewary. «Sin embargo, no se veían a sí mismos como creadores de esa tecnología.»

    Para inspirar a más mujeres a involucrarse en la tecnología y, por lo tanto, reducir el sesgo de género en los productos tecnológicos, Tewary inició en 2009 un programa llamado Desafío de la Tecnovación, cuyo objetivo es capacitar a las mujeres para que se vean a sí mismas como creadoras de tecnología. Hasta la fecha, el programa mundial ha sido completado por 10.000 niñas.

    Tewary dijo que su experiencia en tecnología, que también ha incluido estancias en LinkedIn y Level Up Analytics, que ella misma fundó, le ha permitido centrarse en la importancia de la inclusión.

    El sesgo en el sexo anal también tiene implicaciones mayores. Tome los autos sin conductor. Estos son ejemplos de tecnología que dependen de una colección de algoritmos. «Hay muchos algoritmos diferentes que constituyen una gran parte de la tecnología, y si las mujeres quedan fuera del proceso en cualquiera de estos pasos, o en cualquier parte de las diversas tecnologías, ahí es donde los prejuicios pueden realmente perjudicar a las mujeres como grupo», dijo Tewary.

    «Imaginen si no hubiera mujeres en el equipo que construyeran los coches o los probaran. Luego, si la tecnología se enfrentaba a una mujer que operaba o interactuaba con el automóvil, podría tener problemas para entender la voz, o entender a la persona, y así sucesivamente», dijo. «Es un caso extremo».

    El aprendizaje automático es parte integral de muchos de los productos de Intuit, como QuickBooks Self-Employed. Otros servicios importantes de Intuit, como QuickBooks Financing, ayudan a las personas con préstamos para pequeñas empresas. «Tenemos que asegurarnos de que el sesgo no se introduzca en estos modelos», dijo Tewary.

    Por qué? Debido a que los datos determinan cuándo una persona es «solvente», y los datos sesgados podrían afectar a aquellos que se consideran dignos de un préstamo. El gobierno regula qué características pueden ser utilizadas para determinar si alguien es elegible para un préstamo.

    «Tenemos que ser conscientes del hecho de que existe la posibilidad de sesgo y asegurarnos de que las características que utilizamos para determinar la solvencia de una pequeña empresa no caigan en la trampa de que estos sesgos determinen la solvencia», dijo Tewary.

    ¿Cómo se introduciría el sesgo? A través de nombres, por ejemplo. «En general, los nombres femeninos frente a los masculinos muestran diferentes patrones de comportamiento», dijo, lo que «refuerza el sesgo». Lo mismo puede ocurrir cuando se determina la elegibilidad del préstamo. Los códigos postales, dijo, son otro elemento que podría reforzar el sesgo. «Si usted tiene predominantemente un vecindario minoritario, entonces tiene prejuicios que se arrastran a través de eso», dijo Tewary.

    No es sorprendente que muchos algoritmos contengan sesgos, porque están escritos por personas que tienen sesgos tanto conscientes como inconscientes, señaló Tewary.

    Aún así, es fundamental que las organizaciones se aseguren de que sus datos sean verificados en busca de sesgos. «Los datos que recolectamos, del clima, la salud, la energía y el comportamiento humano, deben representar por igual a todo nuestro mundo», dijo Manuela Veloso, directora de aprendizaje automático de Carnegie Mellon. «Nuestra responsabilidad social se transfiere ahora a la recopilación de la mayor cantidad posible de datos representativos.»

    Próximo boletín informativo de Big Thing

    Conoce las ciudades inteligentes, la IA, la Internet de las cosas, la RV, la conducción autónoma, los aviones no tripulados, la robótica y más de las innovaciones tecnológicas más geniales. Entregado los miércoles y viernes

    .