Perspectives | 27.10.16

A qui appartiennent ces données ?

Dans : Insights,

Le Dr Kevin Macnish fait preuve d'une grande prudence

Au milieu de l'enthousiasme pour l'innovation qui a caractérisé la Big Data Week de Leeds, le Dr Kevin Macnish a fait preuve d'une importante mise en garde : Les Big Data peuvent apporter des avantages aux organisations, et le retour financier peut être alléchant, mais pour les individus, les implications des Big Data et de l'analyse prédictive présentent des risques considérables.

La législation couvrant la propriété, le transfert, le partage, le stockage et l'application des données n'a pas suivi le rythme du développement technologique et des pratiques commerciales. Nous ne pouvons pas supposer qu'un cadre juridique protège nos intérêts de la même manière que, par exemple, nos droits de propriété du logement sont protégés.

En outre, notre compréhension des définitions des données personnelles et de la propriété a été naïve, comme l'a démontré le Dr Macnish par quelques analogies pertinentes. Les avantages à court terme de l'accès à nos données personnelles nous ont amenés à ne pas accorder une attention suffisante aux conséquences à long terme.

L'octroi de l'accès se fait de manière fragmentaire, au jour le jour et sur plusieurs années.

Un délégué d'une quarantaine d'années a demandé, si je voulais savoir combien d'organisations possèdent aujourd'hui des données à mon sujet, sans parler de ces données ou des autorisations que j'ai données à perpétuité, par où commencer ? Il n'y a pas de contrôle des contrôleurs et, comme l'a souligné le Dr Macnish, il est difficile de traiter ce problème rétrospectivement. Il ne peut y avoir d'amnistie générale des données. Nous ne pouvons pas effacer l'ardoise.

Dans ce qui a été un point culminant incontestable de la Big Data Week de Leeds, en jetant de nouvelles perspectives sur toutes les autres présentations, deux points m'ont paru essentiels.

Premièrement, en donnant accès à nos données, nous ne pouvons pas, de manière réaliste, donner un consentement éclairé : les transactions que nous voulons effectuer dépendent de l'acceptation de conditions longues et détaillées que nous ne pouvons pas négocier ; l'accès aux outils dont notre bonheur social dépend en partie, comme Facebook ou d'autres plateformes de médias sociaux, est également soumis à notre acceptation de conditions prédéfinies, dont les implications futures peuvent ne pas être claires pour nous.

Compte tenu de ce fait, alors que les organisations augmentent rapidement l'utilisation qu'elles font de leurs données, et que nous devenons plus conscients de ces applications, une révolte semble - à ce cynique - presque inévitable. Un délégué a soulevé l'idée que les "boycotts de données" pourraient forcer les entreprises à changer leurs pratiques à l'avenir, à mesure que la sensibilisation aux questions de propriété et de contrôle des données augmente. Mais cela ne sera certainement le cas que si le marché a le choix.

Il sera intéressant de voir comment les jeunes générations, qui ont entièrement grandi à une époque où les données sont transactionnées, feront valoir leurs droits de contrôle. Ont-ils perdu la préoccupation de la génération plus âgée pour la vie privée et sa méfiance à l'égard des entreprises non démocratiques ? Ou bien seront-ils plus conscients de la valeur de leurs données personnelles et trouveront-ils de nouveaux moyens de les exploiter à leur propre avantage ? On peut imaginer une nouvelle économie dans laquelle l'individu participe à la négociation pour le contrôle des données et en tire les bénéfices.

Deuxièmement, c'est l'application de l'analyse prédictive à nos données personnelles qui nous met le plus mal à l'aise. L'idée qu'une personne détienne des informations factuelles sur nos achats ou nos comportements passés est une chose que nous avons appris à accepter dans la société moderne, même si c'est, comme l'a dit un délégué, un peu comme la grenouille que l'on fait tomber dans de l'eau froide, que l'on chauffe si progressivement qu'elle ne saute pas avant d'être bouillie.

Cependant, lorsqu'il s'agit d'utiliser des données sur nos actions passées pour prédire notre comportement futur - l'exemple que le Dr Macnish a posé était l'utilisation de nos recherches sur Google pour prédire notre comportement de vote - et de nous traiter difficilement pour cette raison, nous sommes beaucoup moins heureux. Il s'agit toutefois d'une pratique courante, tant au sein du NHS que dans de nombreuses organisations commerciales, et non d'une vision dystopique.

Ce malaise vient en partie de notre refus d'admettre que nous sommes prévisibles. Nous conservons une illusion de libre choix et la notion que nos actions futures peuvent être "vues" à l'avance par les logiciels, remet en question notre compréhension même de ce que signifie être humain.

Ce sont des questions qui vont passer de la périphérie à l'avant-plan. Le Dr Macnish a déjà témoigné devant une commission parlementaire pour tenter de comprendre la législation nécessaire à la protection des personnes et de leurs données. D'ici à la Big Data Week 2017, nous n'aurons peut-être pas de réponses ou de consensus sur ce sujet, mais l'importance de la discussion et de la prise de décision consciente, tant au niveau individuel que collectif, ne peut que croître.

Études de cas

Découvrez comment nous avons utilisé les meilleures technologies disponibles pour aider nos clients à réussir.

Soutien primaire aux TIC

Technologie de l'information (assistance informatique de première ligne)

Premier fabricant de biens de consommation

Service (support produit)

Standard Wool - Service de bureau à distance

Passer au "cloud" avec une solution d'infrastructure sécurisée.

Voix 21

Voice 21 - Étude de cas de projet

Intelligence économique pour les services de santé

Fournir des rapports sécurisés à des publics publics et privés

Laisser les données faire l'affaire

La laine est achetée lors d'enchères sur plusieurs jours avec des variations de prix. Cette complexité ne manquera pas de produire des modèles, mais comment en tirer parti ?

Aucune étude de cas trouvée pour les filtres actuels

Vous avez un projet dont vous aimeriez nous parler ?

0113 8000 200 ou info@alscient.com