Dans le dernier épisode du podcast The Vergecast, le PDG de Foursquare, Jeff Glueck, donne sa vision de ce que doit être l’éthique d’une entreprise qui vit du tracking de la géolocalisation de ses utilisateurs.

Rappelons que Foursquare est un média social qui permet à l’utilisateur d’indiquer où il se trouve grâce à un système de géolocalisation et de faire des recommandations (restaurant, lieu de sortie, magasins, etc.).

L’application dispose d’une dimension ludique puisque l’utilisateur gagne des points et accumule des « badges » liés à des actions spécifiques. Il peut même devenir « maire » des endroits où il a recommandé le plus de choses. En 2009, un « check-in » (recommandation) a même été effectué depuis la station spatiale.

Le modèle économique de Foursquare repose sur cette géolocalisation et la possibilité qu’il offre aux annonceurs d’envoyer des notifications push sur les smartphones des utilisateurs en fonction de l’endroit où ils se trouvent. Starbucks offre ainsi des réductions aux « maires ».

La stratégie de Foursquare est notamment d’aider ses clients annonceurs à devenir moins dépendants des services de géolocalisation tels que Google, qui trustent tout le marché. L’entreprise a d’ailleurs renoncé à Google Maps dès 2012, lui préférant à ce moment-là OpenStreetMap.

Foursquare peine à se développer en France où l’application est moins populaire. La dimension ludique l’emportant trop fortement dans son positionnement, selon MédiasSociaux.fr, les entreprises ne savaient pas trop si l’application était destinée au jeu ou au commerce.

Malgré tout, le sujet des données personnelles et surtout les données de géolocalisation reste un sujet majeur. Et l’interview que son PDG a donnée à notre confrère américain mérite qu’on en traduise l’extrait le plus intéressant.

L’éthique des données chez Foursquare

Jeff Glueck : « J’ai refusé, à maintes reprises, des offres en millions de dollars pour vendre des données, c’était contraire à notre sens de l’éthique, et je les ai refusées en une milliseconde. Les gens ont offert des millions de dollars. Rien ne vaut la peine de violer la confiance car il s’agit d’un business qui repose sur la confiance. Ce n’est pas que les gens ne nous approchent pas. C’est juste que nous disons non.
Le problème est qu’en théorie, si vous avez un identifiant et que cet identifiant contient des horodatages spécifiques de nombreux endroits différents, vous pouvez identifier de fait un individu même s’il est anonymisé dans la base de données, tout simplement parce que vous savez où il travaille et où il vit et où il se trouvait à tel ou tel moment.

Bien sur, c’est quelque chose de difficile à réussir à grande échelle. Si vous vivez dans un immeuble de 100 étages, bonne chance pour déchiffrer qui est qui, par exemple.
Mais nous réfléchissons beaucoup à ce problème. Ainsi, lorsque nous avons travaillé avec des investisseurs, institutionnels, qui souhaitaient comprendre si la chaîne de restaurant Chipotle était affectée par la bactérie E. coli, nous avons flouté l’ensemble des données afin que l’on ne puisse jamais identifier une personne grâce à son nombre de visites au restaurant.

On peut dire que ce mois-ci, il y a avait tant de visites à un Chipotle et le mois dernier, il y en avait tant. Mais en aucun cas, on ne peut voir qui était venu, les données restant anonymes. Pour des sujets comme cela, ou une étude de marché, nos clients se moquent de votre parcours personnel. Ils veulent juste savoir si davantage de personnes se rendent chez McDonald après que celui-ci ait annoncé une promotion sur les petits-déjeuners, par exemple.

En clair : pour une question légitime d’étude de marché, nous pouvons apporter beaucoup. Mais nous le faisons de manière à ce que vous ne puissiez pas obtenir les identités. Nous pensons simplement qu’il y a trop de risque à prendre à faire cela.
Nous travaillons pour les 20 prochaines années. Il y a tellement de possibilités ici qui peuvent être totalement respectueuses de la vie privée et contrôlées par les utilisateurs que nous ne risquerons pas de perdre cela pour quelqu’un qui nous offre un million de dollars pour des données de localisation brutes. Nous ne faisons tout simplement pas cela.

Le vrai danger est que toutes ces innovations auxquelles nous croyons et notamment ce que nous appelons l’informatique contextuelle, puissent être menacées par une entreprise effrayante qui se mettrait à faire des choses effrayantes. L’autre danger est que nous débouchions sur une législation vraiment mauvaise en matière de données. »