La Californie est bien connue pour sa volonté d’avancer à rebours du reste des États-Unis. Une fois de plus, l’État démontre qu’il n’utilisera pas l’intelligence artificielle de la même manière que le reste du pays. La ville de San Francisco prévoit de lutter, dès le 1er juillet, contre les préjugés raciaux, grâce à cette technologie innovante.

Grâce à l’intelligence artificielle, la ville californienne veut offrir une nouvelle chance aux minorités raciales, généralement victimes de préjugés dans leur traitement par les forces de l’ordre. Concrètement, un algorithme sera en mesure d’expurger les informations qui font mention de l’origine ethnique d’un suspect, sur des rapports officiels. Il n’y aura plus aucune distinction de faite entre un blanc, un noir, une personne d’origine latine, ou encore un asiatique.

Les policiers devront juger les faits, sans être influencés par les informations liées directement au suspect. Quelle excellente mesure pour lutter contre les inégalités sociales. Cette démonstration est parfaite et prouve directement les bienfaits que peuvent apporter les nouvelles technologies. Les préjugés raciaux n’auront plus leur place dans les jugements rendus par les organes de sécurité de San Francisco.

Cet algorithme va clairement dans le sens inverse d’une autre intelligence artificielle mise en place dans ce même pays. Aux États-Unis toujours, des algorithmes sont utilisés pour rendre des jugements. Concrètement c’est une machine qui peut décider de la continuité de la vie d’un humain. Et aujourd’hui, l’intelligence artificielle envoie des gens en prison. Comment ça marche ? L’intelligence artificielle apprend des différents jugements rendus et se base sur ces informations pour formuler une décision.

D’après le bureau du procureur du district de San Francisco, l’outil permettra d’éliminer toutes les informations sur la description de la race, mais aussi des détails plus pointus, comme la couleur des yeux, ou encore la couleur des cheveux, par exemple. Évidemment, les noms des suspects n’apparaîtront pas. Ils pourraient induire en erreur les policiers en charge des dossiers.