• La vie algorithmique (Eric SADIN)

    La vie algorithmique (Eric SADIN)

    2015    278 p.   17 €

      Le mouvement de numérisation à l'oeuvre depuis une trentaine d'années gagne aujourd'hui des pans de plus en plus étendus de la réalité via l'extension des capteurs et des objets connectés. Dorénavant, les flux de data témoignent de la quasi-intégralité des phénomènes, s'érigeant comme l'instance primordiale de l'intelligibilité du réel. Une connaissance sans cesse approfondie s'instaure, orientant en retour les décisions individuelles et collectives au prisme d'algorithmes visant les plus hautes optimisation, fluidification et sécurisation des existences et des sociétés.

      Les technologies informationnelles imposent un mode de rationalité fondé sur la définition chiffrée de toute situation et sur une maîtrise indéfiniment accrue du cours des choses. Une raison numérique établie sur l'appréhension et l'évaluation en temps réel des faits ordonne désormais les pratiques du commerce, de l'enseignement, de la médecine, les rapports aux autres, à soi-même, à la ville, à l'habitat...
       Ce livre examine, en s'appuyant sur une foultitude d'exemples, la quantification et la marchandisation intégrales de la vie qui s'instituent, soutenues par l'industrie du traitement des données, aujourd'hui dotée d'un pouvoir qui perturbe nombre d'acquis démocratiques fondamentaux.
       Avec une rare lucidité et une écriture d'une précision clinique, Éric Sadin dévoile les impensés, analyse les processus en cours, dresse une cartographie détaillée des forces à l'oeuvre...

      Observations et réflexions qui dessinent une nouvelle condition humaine, et en appellent à la politisation des enjeux induits par la puissance toujours plus totalisante détenue par les systèmes computationnels.

      Eric Sadin est écrivain et philosophe. Il est invité à donner des conférences dans des universités et centres de recherche dans le monde entier. Ses livres, qui explorent la nature des technologies numériques, sont de plus en plus lus et commentés. Son dernier essai,

      -L'Humanité augmentée (L'échappée, 2013),

    a rencontré un accueil enthousiaste de la part de la critique et du public.

    Extrait

        La journée exposée à grands traits de cet individu correspond dans l'esprit à une réalité déjà subrepticement à l'oeuvre. Ce qui marque dans le quotidien de cette figure anonyme, c'est la capacité de systèmes électroniques diffus, dotés d'une forme d'omniscience, de le délester de nombreuses tâches, de se charger de son plus grand confort, de lui faire profiter des meilleures offres commerciales, et de s'assurer en toute circonstance de sa plus haute sécurisation. Configuration qui aurait pu récemment encore - jusqu'au tournant du nouveau millénaire - nous paraître relever d'un récit futuriste apparenté à une science-fiction passablement exaltée. Or, ce qui frappe à la lecture de ces lignes, c'est la tension entre un schéma d'allure fantastique et la vérification fréquemment renouvelée d'habiter depuis peu au sein d'un milieu de toute part «sensible» et réactif. Si des dispositifs techniques tangibles ou discrètement intégrés aux surfaces physiques s'agrègent au comportement de cette personne, c'est une dimension imperceptible qui dans les faits rend possible l'efficience de cette mécanique, soit la génération de flux numériques activés par un nombre toujours plus important de ses gestes, continuellement récoltés et analysés par des instances de tous ordres. Résultats croisés en temps réel à toute information jugée pertinente, qui lui reviennent sous la forme de conseils, de suggestions ou d'alertes individualisés.

    Car le coeur de notre condition technologique contemporaine renvoie moins aux objets élaborés qui nous environnent qu'au magma immatériel à prolifération exponentielle induit par leurs usages. L'histoire de l'informatique a prioritairement été rédigée «du côté» des instruments et des protocoles. Dimension certes incontournable de cette complexe généalogie, dont on se rend compte aujourd'hui que ce qui l'unifie malgré sa foisonnante hétérogénéité, c'est que leur utilisation a systématiquement entraîné la production de lignes de code suivant des courbes à progression géométrique. Il a souvent été opéré une focalisation sur quelques points saillants de l'industrie de l'électronique : puissance de calcul ou de stockage régulièrement amplifiée, effort constant de miniaturisation, affinement de la qualité ergonomique..., sans qu'il soit dans le même mouvement relevé que toutes ces caractéristiques contribuaient à favoriser la génération corollaire et indéfiniment accrue de data. S'il a été décrit ce qui s'opère en amont, soit l'élaboration de programmes constitués de chiffres structurant le fonctionnement des systèmes, c'est l'ampleur sans cesse croissante de mêmes suites binaires occasionnées en retour par leur emploi, qui singularise aujourd'hui le rapport que nous entretenons aux technologies numériques. Notre époque est caractérisée par un afflux invariablement expansif de données générées de partout, par les individus, les entreprises privées, les instances publiques, les objets, stockées dans les milliards de disques durs personnels ou au sein de fermes de serveurs toujours plus nombreuses. Environnement global qui voit le redoublement en cours de chaque élément physique ou organique du monde en bits exploitables en vue de fonctionnalités de tous ordres.

       C'est cette prolifération ininterrompue et exponentielle qui est désormais circonscrite sous le terme de Big data. Il fallait une notion pour identifier ce phénomène singulier propre à ce moment de l'histoire de l'humanité. Probablement devons-nous en appeler au langage pour tenter d'atténuer une forme de vertige. Le double vocable serait apparu en 2008 et aussitôt entré dans le Oxford English Dictionary sous cette définition : «Volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des moyens usuels». Énoncé à la forme négative qui explicite non pas le principe, mais focalise sur les limites à pouvoir gérer un mouvement qui se déroberait à notre maîtrise ou excéderait nos facultés de représentation. C'est encore un lexique technique utilisé au cours des dernières décennies qui constitue un marqueur manifeste de la production indéfiniment graduelle de données, par l'intégration successive d'unités de mesure relatives à la puissance de stockage et à celle des processeurs.

    Revue de presse

    Diaboliser les big data serait inutile et stupide. Cet essai informé et intelligent, foisonnant de faits et d'idées, propose une stratégie plus fine. Il demande si c'est ce monde que nous voulons. Il substitue, à la fausse évidence de l'inéluctable, un souci de lucidité et de responsabilité, autres noms de l'éthique et de la politique. Ce n'est pas un hasard que pareil tournant soit entamé par un écrivain - non par un chercheur de laboratoire. Les experts n'ont peut-être pas la même acuité. Orwell, en son temps, a mieux su dire le totalitarisme que les politologues. Quand il s'agit de mettre en lumière la logique d'une époque, l'avantage appartient sans doute aux auteurs ­hybrides - poètes qui pensent, philosophes sensibles, romanciers historiens. (Roger-Pol Droit - Le Monde du 2 avril 2015)

    Un mot de l'auteur

    La Vie algorithmique représente à ce jour mon maître-ouvrage, mon livre théorique le plus important".

    Éric Sadin  

    Tags Tags : , , , ,
  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :