La spécialiste des sciences de l’information Helen Nissenbaum (@hnissenbaum) livre une longue interview pour la Harvard Business Review sur la difficulté du consentement en ligne. Trop souvent, la mise en pratique du consentement est « minable », explique la chercheuse, en prenant pour exemple les bandeaux de cookies que nous devons accepter en allant sur la plupart des sites. Comme les conditions générales d’utilisation, on accepte les cookies, sans avoir aucune idée de ce à quoi on consent. D’ailleurs, le plus souvent ces bandeaux ne laissent pas vraiment le choix. Pour elle, nous sommes actuellement coincés dans une « farce du consentement » qui maintient les utilisateurs dans une fausse impression de contrôle.

Or, toutes les modalités de choix qui sont mis à notre disposition en ligne ne relèvent pas vraiment du consentement, explique-t-elle. Et la chercheuse de prendre un exemple simple : quand vous acceptez de donner votre adresse ou votre code postal, à quoi consentez-vous ? Consentez-vous à recevoir du marketing ciblé ? Consentez-vous à ce que la société qui le reçoit en déduise votre nom et votre numéro de téléphone ? Consentez-vous à ce que l’entreprise à qui vous confiez votre adresse calcule votre profil de revenu depuis cette information ? Consentez-vous à ce qu’elle vende cette information à un tiers ? Même chose quand un service vous demande de collecter votre localisation… Quelles données de localisation collecte-t-il ? La latitude et la longitude qu’indique votre GPS ? L’emplacement qu’indique votre adresse IP ? Le lieu – un magasin, un hôpital… – où vous êtes censé vous trouver ?… En fait, souligne la chercheuse, les gens sont bien moins préoccupés par le partage de coordonnées géographiques précises que par des lieux identifiés, comme le fait d’être dans tel magasin, et ce alors que les coordonnées permettent tout à fait d’inférer un emplacement précis. Bien souvent, explique Nissenbaum, les gens ne disposent pas de l’information nécessaire pour faire un choix éclairé ou accepter un consentement clair. Consentir à donner sa localisation ne fournit pas les détails que les gens ont besoin pour faire un choix informé : et notamment à quoi cette localisation va être utilisée.

Non seulement les consommateurs ne savent pas ce qu’ils acceptent, mais les collecteurs de données ne peuvent pas dire avec certitude comment ils utiliseront ces informations, notamment du fait que leur utilisation des données évolue et s’inscrit dans des écosystèmes qu’ils ne maîtrisent pas totalement. Bref, personne ne sait ce qu’il partage ! Et Nissenbaum d’enfoncer encore le clou : « même si vous souhaitiez créer un consentement totalement transparent, vous ne pourriez pas ! » Les entreprises, mêmes les mieux intentionnées, ne savent pas tout ce qu’il se passe avec les données qu’elles collectent. Elles ne savent pas toujours où vont les données. Et si elles savent parfois comment elles sont utilisées, elles savent rarement comment elles seront utilisées à l’avenir. « Exiger un consentement pour chaque utilisation est illusoire » et ce alors que ces utilisations sont en constante évolution.

Quand nous donnons notre consentement à un chirurgien, nous ne comprenons pas exactement tout ce que ce consentement implique, même si (parfois) il nous a donné beaucoup de détails et d’explication sur ce qu’il s’apprête à faire. Nous faisons confiance aux institutions médicales… « Le problème n’est pas que nous ne comprenons pas ce que consentir signifie, mais que c’est impossible ». Et la chercheuse de s’énerver : pour elle, la solution ne consiste pas à améliorer progressivement les mécanismes de consentement ! Le consentement n’est pas un moyen de renforcer le respect de la vie privée et de la confidentialité, insiste la chercheuse, en évoquant le cas de Cambridge Analytica. Nombre de personnes se sont offusquées que Facebook ait partagé leur information sans leur consentement, mais si FB l’avait demandé, il l’aurait obtenu très facilement. Ce qui nous a scandalisés, c’est ce que Cambridge Analytica a fait des données et combien Facebook se moquait de savoir ce que Cambridge Analytica en faisait. Pour Nissenbaum, il nous faut peut-être admettre que le consentement est une garantie inappropriée, pour que nous puissions nous demander comment aborder les questions de collecte de données et de confidentialité.

Pour Helen Nissenbaum, la vie privée est une valeur équilibrée (cf. nos articles sur ses livres, La vie privée en contexte et Obfuscation). Ce qui signifie qu’elle promeut à la fois les intérêts des individus et à la fois la diffusion des intérêts des autres parties concernées, et ces multiples intérêts se révèlent souvent en conflit. Nous ne pouvons ignorer la valeur sociétale de la vie privée. Le consentement individuel peut-être un mécanisme pour exprimer des préférences, voir pour promouvoir certains intérêts, mais on ne peut pour autant ignorer le rôle que joue la confidentialité dans la limitation des flux de données pour promouvoir des valeurs sociétales et contextuelles. Helen Nissenbaum explique que pour elle, la vie privée est un flux d’information ou de données approprié. Elle prend un exemple simple. Elle rappelle que le journaliste qui l’interviewe lui a demandé son téléphone et qu’elle le lui a donné. Or, il aurait pu l’obtenir par d’autres moyens. Pour autant, elle l’a donné, car elle pensait qu’il ne partagerait pas son téléphone avec d’autres personnes, non pas parce qu’une loi l’empêche, mais parce que cette confidentialité est implicite, comme une norme sociale. Or, ces comportements que le journaliste et la chercheuse ont eus pour échanger leur téléphone (une demande polie, etc.) sont essentiels pour la confiance et le respect. Chaque flux de données dépend de contraintes et de normes différentes. Quand un juge demande des informations, vous devez vous y soumettre. De même lorsque le service des impôts vous demande des informations. En échange, ces organismes sont censés ne pas divulguer ces informations – sauf cas particulier, mais prévus par les lois et règlements qui s’y appliquent. À l’inverse, quand Sherlock Holmes acquiert des informations, il le fait par inférence. C’est là un flux d’information très différent et qui devient de plus en plus important à l’heure où les systèmes déduisent des informations de nos données personnelles.

La théorie de l’intégrité contextuelle repose sur 5 paramètres pour évaluer si un flux d’information menace la vie privée, à savoir : l’expéditeur, le destinataire, le sujet, le type d’information et le principe de transmission. L’enjeu est de rendre conformes les flux aux normes d’information légitimes. Le problème est que la technologie fait changer ces normes, et ce très rapidement, et ce non pas tant parce que ces changements sont « forcés » par les entreprises de technologie, mais parce qu’elles promeuvent d’autres valeurs et intérêts, d’autres types de comportements…

Pour Helen Nissenbaum, la protection de la vie privée ne repose pas seulement sur les préférences et intérêts des individus. L’hypothèse de base selon laquelle le droit à la vie privée est toujours le droit d’une personne à révéler de façon sélective des informations sur elle, ne marche pas à tous les coups. Il y a des cas par exemple où des gens peuvent être profilés sans leur consentement et dans leur intérêt. On voit bien, insiste la chercheuse, que nombre de collectes de données sont erronées, même si les personnes y consentent, à l’image des politiques de confidentialité auxquels nous consentons sans les lire. Le régulateur ferme les yeux cependant, car bien souvent, les avantages sont plus importants que les inconvénients (même s’ils ne sont pas répartis également). Et la chercheuse de faire une analogie avec la protection de l’environnement : imaginez que je possède des forêts et qu’une entreprise de papier me propose de les acheter. Je peux décider que c’est une bonne affaire et accepter leur proposition commerciale. Mais si on prend en compte les coûts futurs, les coûts externes et tout ce qui n’affecte pas seulement les deux parties en cause, alors peut-être qu’abattre cette forêt est un problème. En ce qui concerne la protection de la vie privée, les questions difficiles à résoudre se posent quand deux personnes consentent à partager, mais qu’elles compromettent de ce fait d’autres personnes avec qui elles sont liées, comme dans le cas des relations sur les réseaux sociaux (l’expression de nos relations, le graphe social) ou dans le cas de l’analyse génétique (qui impactent d’autres que nous-mêmes, nos ascendants et nos descendants notamment).

Les politiques que nous avons mises en place créent des déséquilibres systématiques, jusqu’à parfois saper des institutions sociales critiques. Nous avons besoin de réétalonner les choses. « Actuellement nous acceptons que les plateformes de médias sociaux aient le droit de posséder les données d’un individu en se fondant uniquement sur le fait que la personne utilise cette plate-forme. » Pour Helen Nissenbaum, c’est une hypothèse qu’il faut réexaminer. Nous devrions tous pouvoir accéder à la valeur des données produites en communs et pas seulement ceux qui les collectent. Une proposition qui en rappelle d’autres, à l’instar du dégroupage des données qu’évoquait Sébastien Soriano (@sorianotech), président de l’Arcep, dans une récente tribune pour Alternatives Economiques, qui vise à imposer aux collecteurs de données de partager des données qui relèveraient de l’intérêt général. Mais il n’est pas le seul à interroger les limites d’une « fabrique du consentement individuel », sans questionner le sens du bien commun ou de l’intérêt général produit de l’agrégation de nos consentements. Le juriste Lionel Maurel (@calimaq) par exemple, explore avec détail et depuis longtemps ces enjeux. Il soulignait par exemple très bien à son tour les deux faces du consentement, à la fois subjectif et objectif, et les questions que posent cette ambiguïté.

La chercheuse prend l’exemple des données que collectent les compagnies d’assurances sur leurs assurés. Si d’autres parties avaient accès à ces référentiels, ne pourrions pas améliorer la tarification, la surveillance des maladies, etc. Donner un accès plus large aux données des entreprises d’assurance ne leur profitera peut-être pas, mais pourrait permettre d’améliorer les offres au bénéfice de la société. À l’heure actuelle, elles bénéficient d’un accès à leur discrétion exclusive, au détriment des opportunités dont la société dans son ensemble pourrait bénéficier. Pour Helen Nissembaum, il est nécessaire de trouver les moyens de débloquer les avantages sociétaux masqués par l’individualisation de la collecte de données. J’ai l’impression à la lire que l’enjeu qu’elle expose est d’ailleurs bien plus dans le fait de trouver des modalités nouvelles à la gouvernance des données en communs, que dans un rejet du consentement strict.

Dans un autre article pour la Harvard Business Review, la chercheuse Leslie K. John (@lesliekjohn) dresse le même constat : l’équilibre entre les avantages qu’en tirent les entreprises et les utilisateurs n’est pas équitable.

Pourtant, les consommateurs ne récompensent pas les entreprises qui offrent une meilleure protection de la vie privée. Pour Leslie John, cela ne signifie pas que les gens ne se soucient pas de leur vie privée, mais que plusieurs facteurs les empêchent de faire des choix judicieux. Non seulement les gens ont du mal à mesurer les coûts et les avantages en ce qui concerne leurs données personnelles, mais les entreprises ont également structuré leurs produits et services pour exploiter de manière subtile les biais cognitifs qui interfèrent avec ce jugement. Les gens surestiment les avantages immédiats et ce d’autant que les inconvénients demeurent souvent vagues et lointains. C’est le cas par exemple quand ils ouvrent leurs données pour répondre à des quizz, sondages ou jeux anodins, sans mesurer qu’à long terme cela peut impacter leur prime d’assurance par exemple. Bien souvent, les transactions sont structurées pour rendre les avantages de la divulgation immédiats et attrayants tandis que les coûts, eux, sont retardés. Autre phénomène en jeu : nous accordons moins d’importance à la confidentialité quand nous devons la payer. Enfin, souligne encore la chercheuse, la possibilité qu’ont les utilisateurs à opter pour d’autres options est souvent masquée, à l’image de l’application mobile de Facebook qui incite les utilisateurs à télécharger les téléphones de leurs contacts par défaut… (sans comprendre toujours clairement ce que cela signifie, à savoir importer son carnet de contact dans Facebook pour identifier d’autres utilisateurs pour l’usager, mais pour Facebook avoir accès à l’ensemble de vos relations sociales, clairement identifiables). Les utilisateurs sont également très confiants quant à leur capacité à tout maîtriser en ligne. Et cette illusion de contrôle est très bien exploitée par les sites et services. Sans compter que notre désir à partager est assez irrépressible et nous pousse à dévoiler des choses de nous-mêmes… Ce biais social de divulgation est largement exploité par les plateformes, où les frontières entre les transactions sociales et commerciales sont de plus en plus floues, les annonces ressemblant toujours plus aux autres contenus. Alors que dans la vie réelle nous avons une bonne compréhension des normes sociales relatives à la discrétion (nous ne confierions pas nos secrets à quelqu’un au milieu d’un groupe par exemple), sur le numérique, ces frontières sont plus floues. Les gens saisissent mal la portée de leurs propos et mesurent mal l’audience que ces systèmes leurs donnent, par exemple quand ils critiquent leur employeur sur un groupe FB… L’apparent sentiment que nos interactions sont éphémères amène les gens à faire des révélations qui ne sont pas éphémères. Ajouter à tout cela la grande complexité des fonctionnements, et vous récoltez avant tout des utilisateurs perdus. « La prise de décision en matière de confidentialité est incroyablement complexe. » Au final, constate la chercheuse, « Les entreprises ont donc un avantage informationnel par rapport aux consommateurs. Comme tout économiste vous le dira, cette asymétrie en soi suggère une défaillance du marché et invite donc à une intervention réglementaire. »

Leslie suggère néanmoins quelques pistes. « L’objectif ne devrait pas simplement être de rendre plus difficile le partage ou d’accroître unilatéralement les obstacles que rencontrent les entreprises pour obtenir des données sur les consommateurs. Une telle approche serait trop simpliste, car les entreprises et les consommateurs ont tout à gagner à partager l’information ». Pour elle, l’enjeu est de trouver les modalités d’une utilisation raisonnable des données personnelles par les entreprises, ce qui implique de les rendre responsables des conséquences négatives de l’utilisation des données des utilisateurs. C’est ce que proposaient également il y a quelques années dans une tribune pour The Atlantic le spécialiste de droit constitutionnel américain Jack Balkin (@jackbalkin) et le professeur de droit Jonathan Zittrain (@zittrain) : les avocats et les docteurs n’ont pas le droit d’utiliser les informations de leurs clients pour leurs propres intérêts, pourquoi n’en serait-il pas de même avec Google et Facebook ? Du moment qu’elles accèdent à nos données, devraient-elles avoir l’obligation de se comporter en fiducies, c’est-à-dire avec l’obligation d’agir de manière responsable dans l’intérêt du tiers dont elles gèrent les données ?

Original sources