IA médicale, la France à la traîne

IA médicale, la France à la traîne

IA médicale, la France à la traîne

L’intelligence artificielle (IA) bouleverse nos sociétés. En santé notamment. La Chine et les Etats-Unis investissent déjà massivement pour s’emparer de ce marché colossal. A contrario, la France reste sur la réserve et débat des enjeux éthiques.

Par Oumy Diallo, Anaïs Draux et Amaury Lelu

Atteint de diabète, John développe des troubles de la vision. Une déficience de la rétine liée à son taux de sucre dans le sang. Depuis avril 2018, aux Etats-unis, la maladie de John peut être détectée grâce à l’intelligence artificielle (IA) du robot IDx-DR. Présent dans les centres médicaux, celui-ci propose un diagnostic sans recourir à un professionnel de santé. Ce progrès médical repose sur un algorithme, une série de calculs utilisée pour résoudre un problème.

Pour reconnaître une tumeur, la machine doit apprendre. Ce qu’elle fait gêce au deep learning, ou apprentissage profond. Pour l’entraîner, on a enregistré dans son ordinateur, un très grand nombres d’images de tumeurs. Par comparaison, et grâce à son algorithme, elle devient capable de proposer un diagnostic.

Résultat, à l’issue d’une étude d’ampleur menée par l’université américaine de radiologie et le réseau d’imagerie médicale du New Jersey (NJIN), le taux de réussite de la machine s’élève à 84 % pour le cancer du sein contre 75,8 % pour un radiologue. L’IA s’avère donc plus performante que le cerveau humain pour certains diagnostics.

Sources : Maddyness ; Usine nouvelle ; étude du NEJM (lien en anglais)

En France, les centres anticancer accueilleront bientôt l’intelligence artificielle développée par la start-up Cardiologs. Une technologie qui utilise les algorithmes de Therapixel pour mieux interpréter une mammographie. On s’attend donc à des diagnostics plus fiables et une prise en charge des patients plus rapide.

Autre exemple, le délai d’attente pour un rendez-vous en ophtalmologie varie entre 77 et 100 jours, selon la note publiée par l’Institut Montaigne en janvier 2019. Automatisé par l’IA, le dépistage des pathologies rétiniennes pourrait aider à réduire les délais.

Le savoir-faire français est indéniable mais les investissements de l’Etat se font encore attendre. Suite au rapport remis à Emmanuel Macron par le mathématicien et député Cédric Villani, en mars 2018, un plan intelligence artificielle de 1, 5 milliard d’euros a été déployé en 2018. Autant dire une broutille, dans un contexte de concurrence exacerbée entre les Etats-Unis et la Chine.

En Europe,  on est guère plus rapide. Le 12 février 2019, le parlement européen adopte une résolution appelant à la mise en place d’un marché communautaire de l’IA. L’objectif est de permettre à l’Union européenne « de rivaliser avec les investissements de masse effectués par les tiers, notamment les Etats-Unis et la Chine ».

Le rapport préconise également la création d’une agence réglementaire européenne de l’IA et de la prise de décision algorithmique. Le parlement estime que l’Union européenne doit jouer un « rôle de chef de file sur la scène internationale » d’une IA éthique, sûre et de pointe. En Europe, la protection des données personnelles est garantie depuis 2016, par le Règlement général sur la protection des données (RGPD). Des précautions salutaires mais qui freinent l’implantation de l’IA

Selon un rapport du cabinet d’analyse de données américain, CB Insights, sur les tendances en intelligence artificielle, 15,2 milliards de dollars (13,7 milliards d’euros) ont été investis dans le monde en 2017 dans des start-up spécialisées dans l’IA.

Près de la moitié de cette somme provient de la Chine. Celle-ci entend devenir, d’ici 2030, le leader mondial d’une industrie qui représente 150 milliards de dollars (136 milliards d’euros). Profitant d’une base de données gigantesque grâce à sa population de 1 417 913 092 d’habitants (2019) et d’une réglementation peu contraignante sur la protection des donnés, la Chine semble invincible.

Malgré des dérives observées quant à l’utilisation des données personnelles, plus de 130 entreprises chinoises ont investi dans la médecine connectée. Le risque est de se retrouver dans une situation semblable à celle de l’après Seconde Guerre mondiale lorsque le soft power américain s’est imposé à la faveur du plan Marshall et de subir ainsi une domination culturelle chinoise.

Dans le domaine de la santé, en France, l’IA est un processus très long qui débute par l’apparition du numérique et notamment la dématérialisation des dossiers médicaux.

Si les technologies du machine learning ou du deep learning  ne sont pas encore utilisées dans les CHU, la robotisation vient en aide aux patients depuis une dizaine d’années. C’est le cas au CHU de Tours avec le Robot Da Vinci Xi. Sous le contrôle du chirurgien, qui manie des joysticks, les interventions sont beaucoup plus fines et précises. Une révolution telle qu’une personne à qui l’on retire un rein peut sortir le lendemain. Alors que ce n’était guère possible avant dix jours auparavant.

Une révolution telle qu’une personne à qui l’on retire un rein peut sortir le lendemain, contre dix jours traditionnellement

Néphrologue et directrice de l’Espace de réflexion éthique de la région Centre-Val-de-Loire (ERERC), Béatrice Birmelé occupe un petit bureau au sein du CHU de Tours. Avec une chargée de mission, elle accompagne dans la réflexion éthique les établissements sanitaires, médico-sociaux et de formation.

Malgré l’obligation pour ces organismes de se former, le temps manque, et les connaissances des professionnels de santé sont lacunaires. « En médecine, l’IA représente six heures de cours dans le cursus entier. Les étudiants ne sont pas préparés », déplore Béatrice Birmelé.

L’enjeu principal de l’IA est de comprendre comment la technique va modifier la relation entre les soignants et les patients. « Le médecin de demain devra aussi être un technicien. L’essentiel de son travail sera l’accompagnement du patient avec l’outil IA », prévient Béatrice Birmelé.

Mais l’IA en santé n’est pas la priorité. C’est Sylvain Brochard, conseiller du président du conseil régional de la région Centre-Val-de-Loire, qui le dit tout nettement. Il met en avant  les freins culturels ainsi qu’une réticence des médecins à remettre en question leur démarche. Selon Béatrice Birmelé, une trentaine de personnes seulement étaient présentes au colloque sur l’éthique médicale organisé à Tours début octobre 2018 : « Nous avons passé la plupart du temps à expliquer ce que représente l’IA. »

Une réticence compréhensible de la part de l’opinion publique au vu de l’opacité qui entoure le fonctionnement des algorithmes. En effet, les données appartiennent aux hébergeurs et aux fabricants,  qui peuvent en disposer comme bon leur semble.

De plus, aujourd’hui, à quelques exceptions près, les bases de données ne sont pas sécurisées et des hackers peuvent facilement infiltrer les systèmes. Il est donc difficile de savoir quels sont les risques pour le milieu hospitalier.

Le libre arbitre à l’heure de l’IA

En cas d’erreur médicale, qui du professionnel ou de la machine sera mis en cause ? Et le médecin pourra-t-il contester librement la décision d’un algorithme ? Tant que l’intelligence artificielle n’est pas régie par un régime juridique spécifique, le régime de droit commun lui est appliqué, alors qu’il est totalement inadapté.

Aux États-Unis, un médicament connecté est autorisé depuis 2017 par la Food and Drug Administration (FDA), l’équivalent américain de l’Agence nationale de sécurité du médicament. Les patients atteints de troubles psychiatriques ingèrent une capsule qui envoie un signal Bluetooth à une application mobile. Les médecins sont donc informés lors de la prise du traitement. S’ils ne se soignent pas, les malades assurés pourraient être moins bien remboursés.

De son côté, la compagnie d’assurance John Hancock Financial a décidé de réduire ses tarifs et d’offrir des bons d’achats aux clients qui acceptent de porter un bracelet connecté pour mesurer leur activité physique. Une surveillance rapprochée et un libre arbitre qui disparaît pour le malade.

i-Donea™ permet au patient de ne pas oublier de prendre ses médicaments. Mais il permet également à de nombreuses personnes de surveiller ce patient…

Concernant la surveillance médicale, la France est, elle aussi, tentée. Depuis juin, le pilulier automatique i-Donea est en expérimentation en Ariège. Installée au domicile, le distributeur de médicaments intelligent donne au patient les médicaments prévus à l’heure à laquelle il doit les prendre. Un système destiné au personnes âgées et qui permet au personnel de santé et à l’entourage de suivre le traitement à distance.

Bien sûr, en cas de perte d’autonomie, la solution semble pertinente. Mais remplace-t-elle pour autant l’infirmière qui passe à domicile, délivre les médicaments et discute avec le patient ? Le risque est fort d’un perte de contact humain et d’autonomie décisionnelle. Pourra-t-on conserver son libre arbitre à l’ère de la santé connectée ?

« Une des visées majeures de l’industrie du numérique consiste à faire main basse sur le domaine de la santé, envisagé, avec ceux de la voiture autonome, de la maison connectée et de l’éducation ; comme les plus décisifs et pour lesquels elle entend se doter de tous les moyens nécessaires afin d’asseoir, à terme, une domination sans partage »

Eric Sadin, p. 111

Le philosophe Eric Sadin, s’élève contre l’hégémonie du numérique et les risques qu’il représente pour les sociétés démocratiques. Selon lui, la dissémination de capteurs dans notre quotidien constitue un réel danger pour nos libertés individuelles et notre libre arbitre. Elle nous met surtout à la merci des entreprises privées qui collectent des informations sur nos habitudes à des fins commerciales.

Il y a toutes les traces que nous laissons sur Internet. Mais, demain, une balance connectée pourrait, par exemple, nous proposer des compléments alimentaires. Ou communiquer nos « mauvaises habitudes alimentaires » aux sociétés d’assurance qui pourraient décider de ne plus nous couvrir…

Dans son livre L’intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical (L’échappée, 2018), le philosophe, met en garde contre la perte de liberté et la normalisation des comportements. Il dénonce le « pouvoir injonctif » de cette technologie qui, à terme, conduira à l’asservissement de l’humanité.

Il déplore aussi que, lorsque on évoque l’éthique en IA, on s’arrête généralement à la question des données personnelles : « Il serait temps de cultiver une éthique de la responsabilité pleinement soucieuse de défendre le droit à l’autodétermination de chacun et celui de la société tout entière. » Pour lui, c’est donc notre modèle de société dans son ensemble qui est en jeu.

Oumy Diallo

@DialloOumy4
28 ans
Etudiante à l’EPJT en Année spéciale de journalisme (spécialité presse magazine)
Passionnée par la culture, linternational et les questions de société.
Passée par France télévisions, Grand Seigneur, Arrêt sur Images et TV5 Monde.

Anaïs Draux

@AnaisDraux
23 ans.
Etudiante à l’EPJT en Année spéciale de journalisme (spécialité presse magazine)
Passionnée par la culture artistique et les sujets de société.
Est passé par 37 ° et Néon
Aimerait se lancer dans le journalisme multimédia

Amaury Lelu

@amaurylelu
23 ans.
Etudiant à l’EPJT en Année spéciale de journalisme (spécialité presse magazine).
Passé par Le Berry républicain, La Nouvelle République et Trax Magazine
Amateur de musiques électroniques.

Réchauffement numérique

Réchauffement numérique

Réchauffement numérique

Vous ignorez peut-être leur existence, pourtant ils font partie de votre quotidien. Sans datacenter, plus de vidéos sur votre Smartphone, plus de mails. Ces serveurs fonctionnent en continu pour satisfaire une demande croissante mais consomment énormément d’énergie. Face à cette pollution, des solutions commencent à se développer.

Par Margot DESMAS, Laure LE FUR, Marcellin ROBINE

Des cris d’enfants résonnent sous la voûte blanche de la piscine de la Buttes aux cailles. En cet après-midi d’hiver, un groupe scolaire profite de ce décor inspiré de l’art nouveau pour apprendre à nager. Construite en 1924 dans le 13e arrondissement de Paris, cette piscine est l’une des rares à être classées monument historique dans la capitale. Sa beauté n’est pas sa seule spécificité. En mai 2017, ses bassins ont été les premiers de France à être chauffés en partie par du matériel informatique.

Pour voir ces chaudières numériques, il faut se rendre sous la piscine. Dans la chaufferie traditionnelle, le bruit des machines est assourdissant. L’odeur de chlore envahit les narines. Ici et là, quelques gouttes d’eau tombent sur le sol et font naître de petites flaques. Après quelques mètres, le passage est bloqué par une porte protégée par un digicode. Derrière se cache un mini datacenter composé de six baies informatiques avec des serveurs stockant les données de trois entreprises. Elles rendent aussi service à des studios d’animation qui ont besoin d’une très grande puissance de calcul pour réaliser leurs dessins animés en 3D. «  Si un jour, ils ont un problème informatique, ils peuvent retrouver ici leurs fichiers », assure Christophe Perron, le directeur de l’entreprise Stimergy, à l’origine de ces installations.

Depuis sa création en 2013, cette société investit dans la transition énergétique et numérique en réutilisant la chaleur de serveurs informatiques pour chauffer des logements sociaux et collectifs, notamment à Nantes et à Grenoble. L’université Lyon 3 est également équipée et en partie chauffée grâce aux chaudières de l’entreprise. Après un appel à projets lancé par la ville de Paris, la société a voulu se lancer ce nouveau défi : chauffer une piscine.

À pleine puissance, ces chaudières numériques apportent 50 à 60 % des besoins en énergie pour chauffer l’eau de bâtiments résidentiels. Pour une piscine, c’est un peu différent, comme le précise Christophe Perron : « Ici, on perd de la chaleur en permanence avec l’évaporation. On est autour de 20 % quand nos chaudières fonctionnent à fond. » Ce système permet à la piscine d’éviter le rejet de 45 tonnes de CO2 par an. Ce qui équivaut à près de 50 000 kilomètres parcourus par une voiture citadine diesel.

« Le système coûte environ 20 000 euros. En cinq à sept ans, c’est amorti. Si c’est dans un bâtiment neuf, ça l’est dès le départ », poursuit le directeur de Stimergy. L’entreprise ne s’arrête pas à ces quelques installations. Elle a de nouvelles demandes de réalisation pour des résidences et pour une piscine en construction à Rueil-Malmaison. Les élus sont de plus en plus sensibles à ces dispositifs innovants car l’enjeu n’est pas qu’économique, il est aussi écologique.

Le matériel qui chauffe une partie de la piscine de la Butte aux Cailles est habituellement hébergé dans des grands bâtiments, les datacenters. Ces installations sont essentielles au fonctionnement d’Internet et de la société contemporaine. Ils hébergent des systèmes informatiques qui stockent des données devant être accessibles 24 heures sur 24, toute l’année. Ces centres de données sont donc très énergivores puisqu’ils fonctionnent en permanence. Ils représenteraient même entre 4 % et 5 % de la consommation énergétique mondiale.

En France, les datacenters utiliseraient près d’un dixième de l’électricité consommée. Avec de puissantes machines informatiques qui ne s’arrêtent jamais, les entreprises propriétaires de datacenters doivent faire face à un problème : le refroidissement des outils informatiques. Un simple ordinateur portable dispose de son système de ventilation pour pouvoir être utilisé dans de bonnes conditions. Pour des équipements disposés dans des grands bâtiments, parfois de plusieurs milliers de mètres carrés, la problématique est la même. A une autre échelle. Leurs climatisations consomment énormément d’électricité et ont un impact sur l’environnement. Et sur le prix d’utilisation des datacenters.

L’Île-de-France accueille la majorité des datacenters français. D’après le cabinet Xerfi, spécialisé dans les analyses sur les secteurs et les entreprises, la région hébergeait 56 centres de données en 2016 sur un total de 156 installations en France. A elle seule, la Seine-Saint-Denis en accueille une vingtaine. Les lignes électriques qui alimentaient les grandes industries d’antan ont répondu aux besoins des entreprises spécialisées dans l’hébergement de données.

A Pantin, au bout d’une zone industrielle composée d’immenses entrepôts gris, se trouve un bâtiment rénové. Le géant américain du datacenter, Equinix, s’est installé dans l’ancien centre de tri postal de l’est parisien. Jusque dans les années quatre-vingt-dix, des trains entraient dans ce bâtiment. En 2012, il a été reconfiguré en datacenter de 24 000 mètres carrés, avec 16 000 mètres carrés de surface exploitable.

Le site est ultrasécurisé, le port du badge est obligatoire. Certaines portes ne peuvent être déverrouillées qu’avec des empreintes digitales. Même le directeur n’a pas accès à l’ensemble des salles. Le hall d’accueil est vaste, un robot suit du regard les employés et les visiteurs. De longs couloirs mènent dans des salles où des câbles de toutes les couleurs relient des machines qui clignotent. 

Chaque entreprise a son propre box grillagé, protégé. Ici, Internet est bien réel, matérialisé par d’imposants serveurs entreposés dans des salles climatisées. « Notre métier a changé en vingt ans, explique Fabien Gautier, le directeur business développement et marketing d’Equinix France. Je peux considérer trois grandes étapes : une première de 1998 à 2007 durant laquelle nous avons construit de grands bâtiments dans lesquels nous avons positionné des équipements réseaux pour développer le maillage d’Internet. »

Les constructeurs de datacenters ont dû apporter, dans un premier temps, énormément d’électricité dans les bâtiments pour faire fonctionner les outils de leurs clients. Puis, les propriétaires de centres de données ont dû être plus transparents sur leur fonctionnement. « Nos clients n’avaient plus de contrôle direct sur leurs équipements informatiques et il a fallu faire des rapports d’analyse, documenter un peu plus comment le bâtiment était géré, managé », explique-t-il.

Aujourd’hui, Fabien Gautier rapproche les machines de différentes entreprises pour qu’elles se connectent et échangent des informations plus rapidement entre elles. « On s’est rendu compte que, parfois, les gens ignoraient qu’ils avaient tel ou tel acteur à côté d’eux. En échangeant avec d’autres entreprises, un assureur peut adapter ses services en fonction des accidents les plus fréquents plutôt que d’utiliser des données statistiques. »

Equinix détient en région parisienne sept datacenters reliés entre eux. « La totalité de nos sites sur Paris fait 55 000 mètres carrés nets exploitables. C’est ce que nous qualifions de plus grand campus digital de France », se réjouit son directeur business développement et marketing.

La société compte environ 800 clients sur la région parisienne. Des fournisseurs d’accès à Internet, des fournisseurs de contenus, des réseaux sociaux ou encore des grands groupes cotés en Bourse. L’intérêt pour ces entreprises d’être réunies dans un même « campus » est technique – les informations circulent plus vite – mais aussi économique et écologique. A plein régime, la consommation électrique du datacenter de Pantin équivaudrait à une ville de 75 000 habitants, comme Calais. Le bâtiment tourne actuellement à 40 % de ses capacités.

Pour Fabien Gautier, il est préférable que ces machines informatiques soient centralisées dans un datacenter plutôt qu’être dispersées sur le territoire, dans les bureaux de chaque client. « Oui, nous sommes des gros consommateurs d’énergie, mais si on sortait tout le matériel de nos salles, on consommerait 25 % d’électricité en plus. »

Le marché du datacenter est en pleine expansion. Avec l’avènement futur des objets connectés, qui vont récolter une multitude de données, les datacenters sont amenés à se développer. A côté de PA4, on aperçoit un gros chantier. Equinix renforce son offre en France avec un nouveau centre de données qui devrait ouvrir dans les prochains mois.

Un nouveau datacenter en Seine-Saint-Denis. Aujourd’hui, on estime que plus de 50 % des flux Internet français passent par le département, mais cette concentration n’est pas sans conséquences.

A Aubervilliers, six datacenters ont été implantés en une dizaine d’années. Des installations qui ont mis le réseau électrique de la ville à rude épreuve si on en croit les élus. « Ces infrastructures sont très gourmandes en énergie et nous avons fait installer une nouvelle ligne électrique, il y a deux ou trois ans, pour répondre aux besoins », relate Jean-Jacques Karman, deuxième adjoint au développement économique, industriel et tertiaire à la mairie. Son prédécesseur,  Jean-Yves Vannier, est plus nuancé. Pour lui, « la ville double sa consommation électrique avec les datacenters. Mais elle n’a jamais eu de coupure ».

Aux problèmes techniques est venue s’ajouter l’hostilité de quelques riverains qui craignent des nuisances sonores. Ainsi il y a trois ans, alors qu’un nouvel hébergeur prévoit de s’installer sur la commune, la mairie refuse suite à la contestation des habitants. Pourtant les nuisances liées à ces usines à données ne sont pas avérées.

Face à cette défiance, les acteurs publics se tournent vers des solutions plus écologiques et surtout plus discrètes. Pour son projet de métro reliant les villes de l’agglomération de la capitale, la Société du Grand Paris, l’établissement en charge des transports en commun, a ainsi prévu une place de choix pour les datacenters.

Considéré comme le plus grand projet urbain d’Europe, le métro Grand Paris Express devrait entraîner la création de 200 kilomètres de lignes d’ici 2024. Les 24 serveurs qui borderaient alors les lignes seraient de petite taille – entre 300 et 800 mètres carrés – et la chaleur produite serait exploitée par des serres maraîchères urbaines situées au-dessus de la ligne de métro.

Ce projet a été initié en 2016, dans les locaux de l’entreprise publique. C’est ce qui pousse cette dernière à retenter l’expérience, bien que l’aspect pratique pose toujours question. « On a de grosses discussions techniques et financières pour viabiliser le projet et si ça marche, on va s’occuper de la manière dont on va insérer ces datacenters dans le paysage », détaille Gaëlle Pinson, ingénieure du projet.

Les géants du net s’engagent

Si de plus en plus d’acteurs locaux s’engagent pour un Internet plus vert, leur poids n’est pas suffisant pour impacter l’ensemble du système. Comme Greenpeace le pointe dans son rapport sur l’impact environnemental du numérique du 10 janvier 2017, c’est aux géants du Net d’apporter leur pierre à l’édifice, bien que ces derniers aient déjà entamé la transition. 

Aujourd’hui, ces acteurs essentiellement basés aux Etats-Unis et notamment les GAFA – Google, Amazon, Facebook et Apple – se mobilisent pour alimenter leurs datacenters grâce à des énergies renouvelables. Mais la raison n’est pas seulement morale. « Ces nouvelles installations ne sont pas utiles que d’un point de vue environnemental mais surtout financier. Le but est de réduire la facture énergétique », pointe Laurent Lefèvre, chercheur à l’Institut national de recherche en informatique et en automatique.

En installant un centre de données aux confins de la Finlande, Google a donc réduit sa facture énergétique grâce aux températures moyennes de la région, environ -2 °C, qui aideront à refroidir les serveurs. L’eau de mer, dont la température est souvent négative en hiver, servira également de liquide de refroidissement pour le datacenter du plus grand moteur de recherche du monde.

Bien que l’impact écologique d’une telle installation puisse paraître positif, d’autres facteurs sont à prendre en compte. « Quand on va installer des datacenters vers les fjords, il faut déployer une route pour les camions, construire de nouveaux bâtiments ou encore faire des tranchées pour les fibres optiques », énumère le chercheur. Le déploiement de ces infrastructures est souvent coûteux en termes d’énergie mais très difficilement chiffrable. De quoi nuancer l’aspect écologiques pour les installations de ces multinationales.

Malgré l’engagement de ces figures du numérique en Europe, d’autres acteurs influents du secteur restent à convaincre, particulièrement sur le marché asiatique. Tencent, Baidu, Alibaba ou Naver : autant de noms qui n’évoquent rien en Europe. Pourtant, ces firmes dominent le secteur de l’Internet sur le continent le plus peuplé de la planète et peinent encore à passer au vert pour alimenter leurs datacenters. Mais le réveil de la Chine en matière de production d’énergies renouvelables laisse présager un avenir plus vert. Pékin a été le « leader incontesté de la création d’énergie renouvelable », selon le rapport annuel de l’Agence international de l’énergie. L’an passé, le pays a produit 40 % des nouvelles capacités d’énergie verte. De quoi laisser penser à Laurent Lefèvre qu’un numérique écologique est possible.

A l’aide d’un ensemble de chercheurs du monde entier, il a démontré, au travers du projet Green Touch mené de 2010 à 2015, qu’un Internet consommant mille fois moins d’énergie était possible. Fini les vieux câbles, le matériel obsolète et énergivore : l’équipe de chercheurs a imaginé des infrastructures dernier cri, plus efficaces et moins polluantes. En tenant compte de l’explosion de la vidéo et de l’augmentation constante des usages d’Internet, ils ont imaginé un prototype pour repenser le réseau mondial et l’ont transmis aux acteurs du secteur, multinationales ou entreprises locales. Problème : les industriels et particulièrement les hébergeurs de datacenters n’osent pas se lancer. Ils craindraient, entre autres, un manque de fiabilité d’un réseau qui serait alimenté pour une grande part des énergies renouvelables. Le projet est donc toujours en suspens.

Pour devenir plus écologique, les datacenters ont adopté depuis quelques années la technologie du free-cooling. Le système consiste à amener l’air frais extérieur dans les salles où est disposé le matériel informatique qui a besoin d’être refroidi. La chaleur est elle centralisée puis dégagée dans une système de refroidissement.

Début décembre, à Tours-Nord. Il fait 5 °C en milieu d’après-midi, une aubaine pour l’entreprise Cyrès. Elle a installé son premier centre de données en mai 2016 dans un ancien entrepôt frigorifique situé dans une zone industrielle. Un vaste espace sécurisé par un grand portail et de multiplus digicodes. Le free-cooling permet à l’entreprise d’avoir un datacenter moins énergivore, donc plus économique. Pour stocker leurs données, les clients payent le même prix que pour un datacenter classique. Il faut rentabiliser l’investissement. Mais les utilisateurs peuvent être satisfaits de leur geste pour l’environnement.

Le free-cooling amène les datacenters sur le chemin du développement durable. Le datacenter de Pantin utilise également cette technologie sur son toit. Fabien Gautier souhaiterait la développer. « Aujourd’hui, les salles sont climatisées entre 20 et 24 °C, explique-t-il. Les fournisseurs d’équipements assurent leurs matériels lorsqu’ils sont installés dans des salles chauffées dans cette fourchette de températures. Mais en mettant les machines dans des endroits à 28 ou 29 °C, ça fonctionnerait tout aussi bien. »

Les entreprises qui gèrent des centres de données ont donc entamé des discussions avec les équipementiers pour faire évoluer les normes d’hébergements. Elles veulent avoir la possibilité d’entreposer des matériels informatiques dans des lieux un peu plus chauds et ainsi économiser une quantité énorme d’énergie et d’argent. Les discussions semblent avancer. « On fait des tests, en accord avec les clients, qui ont sans doute demandé à leurs équipementiers si leurs matériels pouvaient supporter une température un peu plus élevée. »

Une société, Qarnot Computing, a trouvé une solution pour réutiliser la chaleur de ses machines : répartir ses datacenters chez les particuliers et les transformer en radiateur. Non loin de la maison de la radio, au cœur du 15e arrondissement de Paris, se dresse un immeuble banal. Pourtant, voilà le troisième hiver que des minidatacenters chauffent l’appartement de ses résidents. Jelica Martinovic habite au rez-de-chaussée, dans un trois pièces chaleureux. Il est appréciable d’entrer dans le salon de cette gardienne d’immeuble en ce mois de janvier.

A côté de la télévision trône un appareil carré, noir et argenté, très design. C’est ce minidatacenter qui sert de radiateur. Elle en a trois dans son appartement. Ces machines réalisent des calculs pour des clients de Qarnot Computing, des banques principalement. « Plus les datacenters travaillent, plus ils chauffent, détaille Jelica Martinovic. Et plus on chauffe, plus on est remboursé. On paye l’électricité comme d’habitude à EDF mais Qarnot Computing déduit tout ce qu’on utilise pour le chauffage. » Un avantage qui la fait sourire. « On se chauffe gratuitement. » Chaque mois, elle économise 25 à 30 euros. Une centaine de foyers est concernée par ce projet pilote.

La température des radiateurs peut être réglée, de 16 °C à 25 °C, directement sur un écran tactile intégré au minidatacenter. « L’été, on règle sur la température la plus basse et il n’y a pas de problème », explique Jelena Martinovic. Medhi Chaabane, chargé de projet innovation à la Régie immobilière de la ville de Paris (RIVP), précise : « Si jamais on est en phase caniculaire, les radiateurs s’arrêtent et des datacenters plus classiques prennent le relais. »

Qarnot a contacté la ville de Paris et la RIVP pour mettre en place un partenariat dans le cadre d’un plan climat. « On a bénéficié d’une subvention pour s’équiper », reconnaît Medhi Chaabane.

Tout le monde a l’air satisfait. Pourtant, de l’aveu du chargé de projet, le développement est compliqué puisque le modèle économique de Qarnot n’est pas compétitif. « La RIVP n’a pas la capacité financière pour équiper son patrimoine. » Le bailleur social est propriétaire de 55 000 logements. Miroslav Sviezeny, cofondateur de Qarnot Computing, admet que la plupart des particuliers ne pourront pas être chauffés par ces radiateurs. Une seule machine coûte 2 500 euros. « Aujourd’hui, dès qu’il y a un problème avec un datacenter, il faut intervenir pour le remplacer directement, ce qu’on peut faire facilement quand c’est un immeuble complet mais quand ce sont trois radiateurs par-ci par-là, c’est beaucoup plus compliqué », convient-il.

La RIVP continue tout de même d’exploiter l’énergie des datacenters. La société Stimergy, qui a équipé la piscine de la Butte-aux-Cailles, va chauffer l’eau d’une soixantaine de logements à Montreuil prochainement.

Pour réduire son empreinte carbone numérique, pas besoin d’être une entreprise ou d’attendre l’installation d’un radiateur Qarnot chez soi. Il existe des gestes simples, à réaliser quotidiennement. Parmi eux : arrêter son appareil plutôt que de le mettre en veille, éteindre sa connexion Internet durant la nuit, consulter un site grâce à ses favoris plutôt qu’à l’aide d’une requête sur un moteur de recherche, éviter le Cloud… Car oui, « ce nuage numérique » sur lequel les grandes entreprises nous incitent de plus en plus à stocker nos documents n’a rien d’écologique. Les données sont en effet conservées sur plusieurs datacenters. Une des solutions ? Télécharger ses mails sur son ordinateur à l’aide de certains outils comme Thunderbird.

Pour aider les particuliers à être plus responsables, des outils sont apparus sur le Web. C’est le cas de Lilo, un metamoteur de recherche qui permet de soutenir près de 130 projets sociaux et environnementaux via un système assez simple. « L’internaute gagne une goutte d’eau à chaque recherche. Elle symbolise l’argent qu’il génère grâce aux liens commerciaux qui s’affichent durant ses recherches, détaille Marc Haussaire, cofondateur de Lilo. Une fois qu’il en a collecté un certain nombre, il peut choisir des associations qui lui tiennent à cœur et aller leur redistribuer des gouttes. » La valeur d’une goutte d’eau varie en fonction des périodes et du nombre de recherches que fait l’internaute.

En moyenne, si une personne utilise Lilo durant toute une année, elle pourra distribuer entre 10 et 15 euros aux différents projets. En trois ans d’existence et avec plus de 29 millions de recherches par mois, Lilo et ses 600 000 utilisateurs mensuels ont collecté plus de 550 000 euros.

Mais le metamoteur bien qu’alternatif, fait tout de même travailler les géants du secteur puisqu’il se base sur les algorithmes de Google, de Bing et de Yahoo. « Est-ce que Lilo aura un jour ses propres algorithmes de recherche ? C’est beaucoup trop tôt pour dire si on sera capable de le faire. Je dirais simplement qu’on y réfléchit. », commente prudemment le cofondateur.

La startup a récemment élargi son activité en s’intéressant à de très gros pollueurs : nos boîtes mail. Selon une étude de 2011 de l’Agence de l’environnement et la maîtrise de l’énergie (ADEME), un courriel de 1 Mo, l’équivalent d’un court texte et d’un PDF, génère chaque année 19 grammes de CO2. Plus la pièce jointe est volumineuse, plus le mail pollue. D’après des données de Radicati group, rien que pour l’année 2015, près de 205 milliards de mails ont été envoyés et donc reçus chaque jour dans le monde. Face à ce constat, Lilo a vu l’urgence écologique. « Une pièce jointe stockée, ça veut dire qu’il y a un disque dur qui enregistre la pièce jointe, qui tourne en permanence et qui consomme de l’électricité pour que cette pièce jointe puisse être stockée à vie. » La startup a donc décidé de créer sa propre boite mail pour que ses utilisateurs puissent gérer au mieux cet outil. « On indique à l’internaute sur sa boite mail l’espace de stockage consommé, quelles sont les plus grosses pièces jointes, etc. On va l’aider quelque part à nettoyer facilement sa pièce jointe. »

Une autre startup lutte contre les mails pollueurs et en particulier les newsletters : il s’agit de Cleanfox. Sur le site de l’entreprise, l’internaute indique son adresse mail. Il peut en quelques minutes nettoyer sa boîte de réception et se désabonner des newsletters qui ne l’intéressent plus. Depuis sa création en 2016, Cleanfox a supprimé 500 millions d’emails de plus de 1 million de personnes, et ainsi évité le rejet de 5 000 tonnes de CO2. Pour que les utilisateurs puissent prendre la mesure de leur impact, Cleanfox leur indique combien d’arbres ils ont « sauvés. En moyenne, un arbre absorbe 5 kilos de CO2 chaque année. Avec Cleanfox, ils respirent désormais pour des choses beaucoup plus importantes que pour compenser les newsletters que chacun stocke », résume Edouard Natté, le fondateur de la startup.

Jusque là, Cleanfox utilisait les arbres comme mesure virtuelle. Très vite les utilisateurs se sont pris au jeu et ont demandé si ces arbres étaient vraiment plantés. Cleanfox est donc allé plus loin dans son engagement, en partenariat avec l’association Weforest. « À chaque fois qu’une personne en parraine une autre sur Cleanfox, on donne l’argent nécessaire à Weforest pour planter un arbre dans un projet qu’on adore en Zambie », se réjouit le fondateur. Un million d’arbres a déjà été planté.

Si ces deux entreprises mettent à disposition des internautes des outils verts, les datacenters dans lesquelles sont hébergées leurs données ne le sont pas encore. Cleanfox préfère, dans un premier temps, privilégier la sécurité des données personnelles en s’assurant de la qualité de leurs serveurs pour ne pas être attaqué. Pour Édouard Natté, « le fait de dire “je suis sur un serveur qui fonctionne à l’énergie verte” n’est pas suffisant. Le premier truc à faire, c’est consommer moins d’énergie. »

Marc Haussaire cherche aussi, avant tout, la fiabilité de ses services. « Les gens ne sont pas habitués à ce qu’un moteur de recherche puisse planter trois heures. Donc, si ça venait à arriver, on aurait un risque au niveau de notre image. Je n’envoie pas un signal pour dire que les datacenters qui utilisent une part d’énergie renouvelable seraient moins fiables. Ce n’est pas du tout le cas et j’espère qu’ils le sont. Simplement, on n’a pas encore vraiment étudié la question et je pense qu’il faut qu’on aille vers cette voie. » Pas facile donc de passer au tout vert pour ces jeunes entreprises. Elles ont sans doute encore besoin de temps.

Quoi qu’il en soit, chacun peut agir pour aller vers un numérique vert. L’enjeu est de taille pour la planète à l’heure où les données se multiplient. Législateurs, entreprises et particuliers… c’est en combinant chaque initiative qu’un Internet plus responsable est possible. Et, qui sait ? demain, les bassins des piscines seront peut-être chauffés presque entièrement par des minidatacenters. Faire une longueur ou s’amuser dans l’eau deviendraient presque un geste écologique.