El papel de la ética en el desarrollo de sistemas de inteligencia artificial en el sector emprendedor en América Latina
Por GuIA.ai
Este estudio analiza cómo los pequeños emprendimientos que desarrollan sistemas de inteligencia artificial en América Latina interpretan y aplican principios éticos en sus prácticas empresariales. La investigación se realizó mediante una encuesta regional para examinar las percepciones, motivaciones y principales riesgos que enfrentan estas empresas en relación con la ética de la IA. Los resultados indican que, si bien existe una comprensión generalizada de los principios éticos, aún es necesario traducir estos principios en prácticas operacionales concretas.
Hallazgos de la encuesta
Técnicas y tipos de aplicación de IA
-
Los emprendimientos suelen utilizar aprendizaje supervisado (71%). Además, alrededor del 50% utiliza redes neuronales, redes neuronales profundas, análisis de grupo, aprendizaje no supervisado y árbol de decisión.
-
El 71% aplica IA para realizar clasificaciones, mientras que el 65% y 61% la utiliza para el reconocimiento de patrones y predicciones, respectivamente. La mitad, además, realiza reconocimiento de imágenes.
Impactos de los sistemas de IA
-
El 54% de los encuestados considera que existen riesgos asociados con el uso de la IA en los sectores para los cuales trabajan. Al menos el 70% de los emprendimientos en salud, gobierno, educación, recursos humanos/mercados laborales y justicia identifica riesgos.
-
De los emprendimientos que identifican riesgos, el 64% ha enfrentado riesgos asociados al uso de datos sensibles y el 50%, a los sesgos de los algoritmos y posibles resultados discriminatorios y excluyentes. Alrededor de un tercio, además, identificó predicciones o correlaciones inexactas, y al menos un cuarto identificó riesgos vinculados a la robustez y seguridad de los sistemas de IA, la exposición y fuga de datos, y mala praxis o errores de implementación.
-
En general, los riesgos fueron identificados antes de salir al mercado: el 60% de los encuestados lo hizo antes de desarrollar el producto o servicio, y el 72% lo identificó durante su desarrollo. El 28% detectó riesgos tras lanzar el producto o servicio al mercado.
Mitigación de impactos en emprendimientos que identifican riesgos de IA en su sector
-
El 82% sostiene que realiza actividades para detectar o mitigar riesgos.
-
Dos tercios de los emprendimientos realizan actividades para que los clientes o usuarios mejoren su entendimiento sobre los conceptos básicos de IA, o sobre el proceso o lógica mediante la cual el sistema de IA llega a un determinado resultado.
-
El 89% suele mantenerse informado sobre las maneras de abordarlos. Lo hacen mayormente a través de la búsqueda y seguimiento activo de información sobre el tema (84%), la participación en eventos (72%) y comunidades (68%).
Incentivos y barreras para detectar y/o tratar riesgos en el uso de IA
-
Los emprendimientos que detectan y/o tratan riesgos en el uso de IA lo hacen por motivación propia (78%), reputación (60%), protección de los usuarios (60%) y por cumplimiento normativo (47%). En menor medida por exigencia de terceros, como clientes, inversores o aceleradoras (17%).
-
El 65% de quienes abordan los riesgos en el uso de IA en sus emprendimientos considera que existen factores que obstaculizan la adopción de tales actividades, tales como la inexistencia de marcos y/o entes regulatorios (mencionado por el 66%), los datos de validación y entrenamiento no representativos, incompletos o imprecisos (46%), la falta de claridad en las responsabilidades en el uso del sistema de IA (46%) y la falta de recursos humanos (40%).
Conocimiento del concepto de ética de IA y preferencia de marcos éticos
-
De los emprendimientos encuestados, el 60% sostiene que conoce el concepto de ética de IA, sobre el que han escuchado o leído mayormente en libros, artículos académicos y white papers (35%), y eventos (29%). Sólo el 16% lo ha escuchado en espacios de formación profesional/académica.
-
El 90% de los emprendimientos que conocen el concepto de ética de IA considera relevante adoptar un marco ético dentro de sus equipos para fundamentar el desarrollo de la IA.
-
Dos tercios de quienes adoptarían un marco ético prefieren uno validado por algún mecanismo internacional (como un organismo para el desarrollo, un consorcio de universidades o un organismo de estandarización).
Fuente: Aguerre, Carolina; Ferracuti, Delfina; Kirschbaum, Iván; Levy Daniel, Maia; Perini, Antonella, “El papel de la ética en el desarrollo de sistemas de inteligencia artificial en el sector emprendedor en América Latina”, Proyecto GuIA, Edición 2021, Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés y Centro Latam Digital (CLD), 2022