Brian Chesky avait prévenu, suite à la sordide fusillade d’Halloween à San Francisco en octobre dernier, Airbnb annonçait une série de nouvelles mesures pour garantir la sécurité des propriétaires et des locataires. L’entreprise a depuis déposé un brevet pur utiliser un logiciel qui peut, grâce son système d’intelligence artificielle, détecter les utilisateurs à risque.
Airbnb prétend être en mesure d’analyser la personnalité des utilisateurs
Si le logiciel soumis à l’Office européen des brevets (OEB) en décembre 2019, est présenté par la plate-forme de location comme un « analyseur de personnalités », il semblerait qu’il s’agisse davantage d’un accumulateur de données. En mesure de récolter les informations en libre circulation sur le Web sur les utilisateurs, le logiciel pourra ensuite les recouper avec celles transmises par les autorités sur le casier judiciaire, et l’activité de chacun sur les réseaux sociaux.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Toute donnée relative à certains mots-clés type « drogue », « alcool », « groupe haineux », « impliqué dans la pornographie » ou « auteur de contenu en ligne au langage négatif », devraient ainsi être récupérée.
Incompatibilité d’humeur… et comportements prévisibles
Les informations récoltées contribueront à établir un score à chacun, l’objectif étant ensuite de trouver des scores compatibles entre propriétaire et locataire. Pour traiter toutes ces données, Airbnb compte faire appel à la start-up Trooly, rachetée en 2017, et spécialisée dans l’analyse de données publiques « émanant aussi bien de sources en ligne, comme les réseaux sociaux, que hors ligne, comme les agences gouvernementales » rappelle Kombini.
Il s’agit pour l’entreprise d’être en mesure d’anticiper les comportements à risque : « Nous utilisons l’analyse prédictive et l’apprentissage automatique pour évaluer instantanément des centaines de signaux qui nous aident à signaler et à enquêter sur les activités suspectes avant qu’elles ne se produisent », explique Airbnb. Le site n’a toutefois pas donné de date officielle de mise en service du logiciel.
Cette notion d’anticipation du comportement se généralise. Les événements ayant eu lieu sont on ne peut plus tragiques en effet, mais est-ce vraiment à des sociétés privées de prendre à ce point la sécurité des citoyens en charge? Un logiciel de ce type est-il vraiment en mesure d’anticiper un comportement suspect voire criminel, à l’instar des caméras dotés d’intelligence artificielle testées en Corée du Sud.
Pourquoi ne travaille-t-elle pas davantage avec les services d’ordre, plutôt que de vouloir assurer la sécurité en interne ? Problème d’effectif dira-t-on peut-être… la police est suffisamment débordée comme cela, elle ne peut en plus anticiper les crimes à venir. En effet, oui, et doit-on pour autant souhaiter qu’une entreprise privée le fasse à sa place ? Pas sûr du tout…
Airbnb n’est pas la seule entreprise à tenter ce genre d’opération, Amazon et sa filiale Ring ont également essayé de mettre un système d’anticipation du comportement des individus à travers le système vidéo intégré aux sonnettes Ring. Le processus effraie toutefois les représentants légaux, au fait des nombreuses injustices, et inexactitudes, que cela pourrait causer.
Utiliser l’IA pour améliorer la vie quotidienne ou faciliter le travail pénible est une chose, mais vouloir à tout prix l’utiliser pour éradiquer toute erreur potentielle, pensant que cela va assainir la population d’un certain taux de criminalité ne semble pas si évident, voire dangereux.
À défaut d’avoir des comportements criminels ou violents, nous pourrions tomber dans une société qui s’éloigne peu à peu du système démocratique. Celui-ci n’a jamais été reconnu comme parfait, mais comme un moindre mal, on a parfois tendance à l’oublier. D’autre part, le mal-être, la violence, l’insécurité, trouvent leur causes dans la pauvreté, le manque de travail, et les difficultés sociales, ces facteurs semblent difficiles à rectifier à coup d’intégration d’IA dans un logiciel.
Pour finir, il est souvent question de logiciels dotés d’IA pour prévoir et éradiquer la criminalité physique, mais rarement de logiciels capables d’anticiper l’évasion dans les paradis fiscaux, ou les convois de drogue, ou la vente d’armes illégales, ou l’exploitation des enfants, ou bien encore le braconnage, etc. Parbleu ! Mais pour quelle(s) raison(s) ?…