Imagen generada por DALL-E mini con las palabras inteligencia artificial uruguaya |
La promesa de la llamada “inteligencia artificial” es que las computadoras o máquinas emulen la forma en que los seres vivos- en particular humanos- desarrollan actividades cognitivas. Y a pesar de ejemplos poderosos como Alpha Go, la creadora de contenidos DALLE -2, o la creadora de textos en inglés GPT-3, la realidad es que aún las máquinas no se han rebelado.
Lo que sí ha acontecido es que automatizar, organizar y predecir, actividades muy importantes para múltiples áreas del conocimiento, la industria y la vida misma, han comenzado a ser posibles a gran escala. Esto se debe a tres factores fundamentales: la abundancia de datos, el fuerte desarrollo y acceso a poder de procesamiento y el desarrollo de la conectividad. Y así es como las tecnologías de “machine learning” van colonizando distintos espacios, desde la agricultura hasta la recomendación de su próximo video en Netflix. Y por supuesto han aparecido múltiples problemas. Uno que ha cobrado especial relevancia es el de la transparencia de cómo se desarrollan estas tecnologías que se aplican en áreas bastante banales como muy sensibles.¿Cuál es la razón por la que veo el anuncio en mi aplicación? ¿Cuál es la causa por la cual el gobierno no me otorgó determinado beneficio social? ¿Porque fui arrestado por mi foto? ¿Por qué no me otorgaron un crédito?.¿ Por qué tuve que esperar este tiempo para mi trasplante? En todos estos casos, la respuesta depende de qué tan transparente sea el diseño y la ejecución de estas tecnologías, y que las personas puedan entender lo que está ocurriendo.
Un primer problema son los datos. En muchos casos no es posible determinar de dónde vienen, de qué forma se estructuraron, y ni siquiera si representan a las poblaciones que dicen representar. Este es un viejo problema, documentado particularmente en temas de género, donde las mujeres y minorías han sido tradicionalmente no representadas, o en el peor de los casos discriminadas. Las implicaciones son que muchas de las soluciones no consideran a la totalidad de la población, generando riesgos de discriminación y exclusión. En realidad cualquier solución de IA será tan buena como los datos que tengan, y la mayoría de nuestros datos reflejan los sesgos que tenemos como sociedad. El dato es objetivo, pero la forma en que es construido, no necesariamente lo es.
Un segundo problema es la transparencia. Un algoritmo es básicamente una secuencia de instrucciones ordenada para una tarea o fin Pero en la medida que los algoritmos aprenden de datos y modifican su funcionamiento, y por ende sus resultados, éstos comienzan a ser difíciles de explicar. Por más que de buena fe quienes diseñen muestren sus métodos, no podrán necesariamente explicar cómo han obtenido un cierto resultado. Esto es importante porque- al menos en regímenes democráticos- los gobiernos están obligados a explicar cómo toman decisiones. Al delegar decisiones a empresas que diseñan algoritmos que no necesariamente pueden ser explicados, tenemos un problema si se adopta esta tecnología.
Un tercer problema es tener conciencia de que esto ocurre. Por más que crecientemente los estados nacionales apuestan por educar a su población en materia de pensamiento computacional o incluso inteligencia artificial, la realidad es que muchas personas (incluido el autor de esta nota) no sabemos cuando estamos siendo potencialmente manipulados por un algoritmo. En mi caso, mientras escribo estás líneas, la sugerencia de palabras viene siendo muy acertada.
Automatizar, clasificar y predecir será mucho de lo que veremos en el mundo de la llamada IA en los próximos años en todas las disciplinas. La realidad para los países en desarrollo es que deberán establecer regulaciones para proteger los derechos de su ciudadanía, pero también para favorecer su desarrollo en esta materia. Por más bueno que sea un algoritmo, el contexto sigue siendo extremadamente relevante. No es lo mismo pasar una compleja y robusta regulación como la propuesta en la Unión Europea, que hacerlo en Uruguay o Sierra Leona. Es posible que en los próximos años veamos un mosaico de regulaciones en materia de IA, las cuáles ojalá encuentren base común en la dignidad humana. Esto será responsabilidad de los Estados nacionales al implementar soluciones de IA, pero también al potencialmente regular un pequeño grupo de empresas, que hoy tienen casi todo el poder tecnológico y el capital correspondiente detrás. Se debe gobernar a la máquina, pero también a quienes las construyen e implementan.
Referencias
Scrollini, Cervantes y Mariscal: En busca de rumbo: el estado de las políticas de IA en América Latina disponible aquí
Smith, M., & Neupane, S. (2018). Artificial intelligence and human development: toward a research agenda.
Tomado de Razones y Personas. Esta obra está bajo una Licencia Creative Commons Atribución 3.0 No portada.