Podríem pensar que els ordinadors són neutres pel que fa als biaixos (de gènere, de raça, de creences, etc.) però no és així. Quan un sistema informàtic ha d’assessorar als humans en la presa de decisions és fàcil que introdueixi biaixos. Per què? Doncs perquè les persones que l’han programat poden haver-hi introduït la tendència a fer-ho sense adonar-se’n (esperem que no hagi estat intencionadament).
Quan es fa un algorisme per prendre una decisió (o proposar-la) es creen unes regles. Si totes les persones que dissenyen, per exemple, un algorisme corresponen a un determinat patró, és fàcil que les persones seleccionades pel sistema es corresponguin amb aquest mateix patró. Una cosa semblant passa a l’hora d’entrenar un sistema d’intel·ligència artificial. Si se li donen com a exemples per a l’entrenament els resultats dels processos fets fins ara sense eines informàtiques se l’estarà condicionant per a que prengui els mateixos tipus de decisions i, per tant, perpetuarem els biaixos ja existents.
En aquest article de la revista IEEE Spectrum fan referència als sistemes d’intel·ligència artificial que es fan servir en processos de contractació, però les mateixes observacions són vàlides per a altres àmbits de la vida i la societat. Si, per exemple, un sistema de diagnòstic de malalties s’ha entrenat principalment amb historials d’homes d’unes determinades característiques és probable que doni resultats poc acurats en dones; així com en homes de característiques diferents.
Cap comentari:
Publica un comentari a l'entrada
Deixa el teu comentari