Une donnée ne devrait jamais être prise comme vérité objective

18 Fév.
9 mn de lecture

Doctorante en philosophie politique à l’université de Columbia (New York), Sciences Po (Paris) et enseignante, Charleyne Biondi intervient régulièrement en entreprise pour former des cadres aux grandes questions éthiques liées à la transformation numérique. Elle revient pour notre magazine sur la place croissante de la data dans notre quotidien et les risques générés pour nos métiers.
Pouvez-vous vous présenter, ainsi que votre activité ? Charleyne Biondi : Je suis doctorante en philosophie politique à l’université de Columbia (New York) et Sciences Po (Paris). Ma thèse porte sur la surveillance numérique et ses enjeux politiques. En plus de mes activités de recherche, j’enseigne à l’université (Sciences Po, La Sorbonne Paris Descartes, Columbia) et j’interviens régulièrement en entreprise pour former des cadres aux grandes questions éthiques liées à la transformation numérique. Comment voyez-vous l’évolution de la data depuis quelques années dans notre vie quotidienne et professionnelle ? C.B. : Les premiers « millenials », c’est-à-dire les trentenaires d’aujourd’hui, se souviennent sans doute avoir vu apparaître, vers la fin du lycée ou le début de leurs études supérieures, les termes de « société de l’information » et de NTIC (les « nouvelles technologies de l’information et de la communication »). On nous expliquait à l’époque que ces NTICs allaient permettre le véritable accomplissement de la mondialisation, et qu’internet et les téléphones portables allaient répandre la paix dans le monde et la démocratie. 15 ans plus tard, le terme même de « NTIC » est complètement ringard. La technologie a tellement évolué depuis le début des années 2000 que ce qu’on appelait « le numérique » à l’époque n’a plus rien à voir avec ce qu’on entend par « numérique » aujourd’hui. Les technologies de la « société de l’information » servaient avant tout à communiquer du texte plus rapidement et plus massivement (e-mails, blogs, sites internet, radios et chaînes de télévision numériques, téléphones portables, chats et forums...). Mais très vite, le numérique a dépassé le cadre de la « communication » : aujourd’hui, il ne s’agit plus de coder et d’échanger du texte, mais de transformer en information numérique des éléments du réel qui n’ont plus rien de textuel. De notre consommation énergétique à nos battements cardiaques, de la circulation routière à notre ADN, la “source brute” qui peut être traduite en données numériques est désormais infinie. C’est ce qu’on appelle la “datafication” du monde : la capacité à traduire en données des aspects du monde qui n’avaient jamais été quantifiés auparavant.
Le volume d’informations est devenu aujourd’hui colossal, et ce dans tous les domaines... C.B. : On est passé de la société de l’information à l’âge du Big Data. Pour visualiser ce qu’on entend par « BIG » dans Big Data, et pour se représenter l’évolution exponentielle du volume des données produites aujourd’hui, il y a une métaphore que je trouve assez parlante : en 2013, si on avait voulu stocker toutes les données numériques produites sur Terre sur des iPads de 128 gigas, la pile d’iPad aurait mesuré les 2.3 fois la distance Terre-Lune. Et on estime qu’en 2025, la pile d’iPads nécessaires pour stocker les données produites par l’humanité mesurera 26 fois la distance Terre-Lune. 26 fois !
La « logique » du big data est très différente de la « logique humaine » ? C.B. : Quand on parle de Big Data, on ne fait pas seulement référence au volume des données collectées, ni à leur nature de plus en plus variée. Il faut plutôt comprendre le Big Data comme le phénomène par lequel ces masses de données sont transformées en une nouvelle forme de valeur. L’hypothèse centrale sur laquelle repose le Big Data, c’est que l’immense quantité d’informations numériques aujourd’hui disponible nous permettrait d’apprendre des choses que nous n’aurions jamais découvertes en traitant des bases de données de taille plus réduite, quel que soit le domaine dont on parle (la science, la médecine, l’aménagement du territoire, la linguistique...). La valeur du Big Data réside donc dans la possibilité d’en extraire des connaissances et un savoir inédits. Mais ce qui est intéressant par ailleurs, c’est de se pencher sur la façon dont ce nouveau savoir est produit. Car le Big Data ne procède pas de la même façon que les autres méthodes de traitement de données : avec le Big Data, la connaissance est produite par le biais de corrélations, c’est-à-dire qu’on ne cherche pas à comprendre la cause d’un événement ou d’un phénomène, mais simplement à déterminer sa probabilité, avec la marge d’erreur la plus mince possible. Ce type de raisonnement probabiliste, qui ne fonctionne qu’à très (très) grande échelle, est bien spécifique à l’âge du Big Data : plus il y aura de données, plus les connaissances (ou faudrait-il dire, les “probabilités”) qui pourront en être extraites seront précises et justes. Le Big Data promet donc d’être une mine inestimable de connaissances et de découvertes. Mais il incarne aussi l’avènement d’une forme de logique qui nous est, dans le fond, totalement étrangère. Car la raison humaine est fondée sur la recherche des causes (et non sur l’analyse à très grande échelle de probabilité) : pour comprendre le monde, on se demande « pourquoi » tel ou tel autre phénomène advient. Notre capacité à identifier des rapports de causalités entre les phénomènes ou les événements est ce qui nous permet de donner un sens aux choses. On pourrait même aller plus loin, et dire que c’est ce qui nous permet de donner un sens à la vie, en général. Or, pour la première fois dans l’histoire, notre raisonnement humain est concurrencé par une autre logique de compréhension du monde, celle du Big Data. Quels sont les risques que cela peut générer ? Finira-t-on par avoir plus confiance en la data qu’en notre propre jugement ? C.B. : À l’âge du Big Data, quasiment tout ce qui compose la matière de la vie humaine, sociale, économique, peut être décrit, quantifié par une donnée numérique. La question devient alors : est-ce que ces masses de données donnent vraiment à voir la réalité du monde tel qu’il est ? La donnée est-elle la traduction fidèle de la réalité ? Et par extension : doit-on donc une confiance aveugle au Big Data ?
Il y a quelques temps, j’ai assisté au discours d’un PDG de l’une des principales entreprises de la « Big Tech » devant des étudiants en Affaires Publiques : il expliquait à ce parterre de futurs dirigeants politiques que leur rôle se limiterait de plus en plus à de la com et de la diplomatie, car une intelligence artificielle s’occuperait de prendre les décisions à leur place (et, sous-entendu, le ferait bien mieux qu’eux). Imaginez un avenir où la question de la réforme des retraites, des variations de taux d’intérêt ou de la suppression d’une ligne SNCF serait tranchée, de façon optimale et parfaitement objective, par un algorithme ; un monde où le gouvernement se contenterait de faire de la pédagogie après avoir reçu les conclusions de la machine sur la meilleure politique à suivre... Il ne s’agit pas de sombrer dans la dystopie ou le techno-scepticisme primaire, mais de prendre conscience des enjeux de société qui découlent des progrès immenses et si rapides du numérique aujourd’hui.
Et quels sont les risques pour des métiers comme ceux de l’audit interne, où la donnée joue un rôle de plus en plus important ? C.B. : Quand on traite des données, qu’on a recours à une intelligence artificielle, le premier risque est celui du biais algorithmique. Par exemple : parce que la base de données à partir de laquelle l’algorithme a « appris » à trier un CV reflète inévitablement les inégalités à l’embauche, cet algorithme développé pour les ressources humaines favorise les hommes blancs au détriment des femmes et des minorités. C’est en premier lieu aux développeurs et aux data scientists d’œuvrer pour une intelligence artificielle éthique et responsable, et de « rééduquer » les algorithmes sexistes ou racistes. Mais la potentialité du biais algorithmique doit suffire à aiguiser la vigilance et l’esprit critique de ceux qui les utilisent : de la même façon que l’on sait que le résultat d’un sondage n’est jamais neutre, une donnée ne devrait jamais être prise comme « vérité objective » hors de son contexte. Il ne faut pas oublier que l’humain, même lorsqu’il est méthodiquement quantifié et traduit en données, reste une matière subjective que l’on ne peut interpréter qu’au travers de ses relations organiques avec son environnement.

Article en relation