Intelligence Artificielle

Google encadre le développement de l’IA par 7 grands principes

C'est écrit noir sur blanc

C’est une première. Google a rédigé des règles pour définir le développement de ses différents projets d’Intelligence Artificielle, comme l’a annoncé Sundar Pichai sur Twitter.

Ces règles devront répondre à sept principes bien précis :

  • « Bénéficier à la société » : « Nous prendrons en compte un large éventail de facteurs économiques et sociaux et nous effectuerons des analyses pour déterminer si les bénéfices potentiels excèdent substantiellement les risques et mauvais côtés prévisibles.»
  • « Éviter de créer et de renforcer des biais injustes » : « Nous cherchons à éviter les impacts injustes sur les personnes en particulier ceux qui sont liés à des caractéristiques sensibles telles que la race, l’origine ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les capacités et les convictions politiques ou religieuses. »
  • « Être conçue et testée pour la sécurité » ceci afin d’«éviter des résultats inattendus qui puissent présenter des risques. »
  • « Pouvoir rendre des comptes » 
  • « Incorporer des principes de respect de la vie privée »
  • « Se maintenir aux hauts standards de l’excellence scientifique »
  • « Être mise à disposition des autres pour des usages en accord avec ces principes », Google se « réserve le droit d’empêcher ou de mettre un terme à l’usage de technologies si des usages incompatibles avec ces principes » sont découverts.

L’un des points les plus importants de ce document est le fait que Google refuse de développer « des technologies qui causent ou sont susceptibles de causer un dommage global […] armes ou autres technologies dont le principal objectif est de causer ou de faciliter directement des blessures […] technologiques qui recueillent ou utilisent des informations pour la surveillance et qui violent les normes internationales […]  technologies dont l’objet contrevient aux principes du droit international et des droits de l’homme. » Une annonce en relation directe avec le partenariat entre Google et le Pentagone. Le projet connu sous le nom de Maven, a pour objectif de créer une IA capable d’analyser les images des drones du Pentagone. L’annonce du partenariat avait engendré la démission de plusieurs employés de la firme américaine qui s’opposaient au projet développé. Au final, la collaborations s’arrêtera définitivement en mars 2019, date de fin du contrat et ne sera pas renouvelé. L’entreprise aura finalement réussi à dessiner son cadre éthique concernant ses projets d’IA et ça dans le but de redorer son image tant en interne qu’en externe.

Mais attention, la publication de ces grands principes n’empêchera pas Google de travailler avec les gouvernements ou les armées, l’entreprise précise « bien que nous ne développions pas d’IA pour être utilisée dans les armes, nous continuerons à travailler avec les gouvernements et l’armée dans bien d’autres domaines. Cela inclut la cybersécurité, l’entraînement, le recrutement, la santé des vétérans et les secours. »

Send this to a friend