Oyez oyez braves experts du web et du web sémantique !
Nous sommes de plus en plus nombreux à nous poser la question de l’impact énergétique / carbone des technologies sémantiques.
Leur complexité engendre t’elle un surcroît de consommation ? La décentralisation des réseaux rendue possible par le web sémantique implique t’elle une démultiplication des requêtes et donc des consommations d’énergie. La non duplication des données permet elle au contraire d’économiser de l’énergie ? Leur relocalisation permettrait-elle d’alimenter des datacenters locaux à l’aide d’énergies vertes produites sur les territoires ?
Quelles seraient par ailleurs les bonnes pratiques qui permettraient d’économiser de l’énergie dans le cadre du développement d’applications sémantiques ?
En effet, cela viendrait bien compléter nos échanges d’hier avec Gauthier et le lowtech-lab, mais il faut ouvrir ce débat plus large pour ne pas qu’on aille dans une direction qui ne soit pas cohérente avec les attentes.
Ca vaudrait même le coup de faire une soirée débat en visio avec nos partenaires sur ce sujet, avec la MYNE, Colibris, Transiscope, El Capitan…
L’AV a tout intérêt à animer le débat sur ces questions, tout en restant vigilant à notre communication.
Je suis aussi prêt à participer en fonction des dispos.
Hors énergie grise, on pourra déjà s’amuser à traduire la bande passante consommée par la visio d’1h ou 2h (en audio uniquement ?) en quantité de requêtes sur une instance SemApps !
Ce serait par ailleurs génial qu’on identifie en amont, à la fois les éléments méthodologiques permettant de d’évaluer l’impact de nos technos et à la fois les points critiques susceptibles d’engendrer des surcouts de conso comparativement aux solutions tradis …
C’est en effet un sujet clé ! Petite lecture à ce sujet … L'enfer numérique, publié aux Liens qui libèrent, maison d’édition associée à Actes Sud (on a un rdv, je me renseigne du coup )
Je me prenais la tête pour faire des APIs qui consomment le moins de données possibles. Mais l’impact du numérique n’est en fait vraiment pas là. Depuis que j’ai découvert cette étude de l’ADEME et l’Arcep, j’avoue que j’essaye moins d’optimiser mes requêtes et la bande passante…
Le gros du problème, ce sont les terminaux. Pas la distribution des données : Source
Sinon graphQL c’est plus économe qu’une api REST. Vivement activity pub en gql !
Bonjour j’ai déjà annoncé OFFDEM sur ce forum, et je voulais préciser que nous accueillons une table de conversation « Green Tech » un oxymore…
Vous êtes les bienvenus, il s’agit d’envisager la question du point de vue du logiciel libre et des hébergeurs indépendants.
à date, une réflexion que je voudrais cultiver chez Jean-Jacques Valette en Bretagne :
installer un ordinateur fixe 100% open source dans lequel les visiteurs du lieu pourront consulter et contribuer à la cartographie sémantique des acteurs + gérer les activités courantes inventaire / réservation d’espaces / communication sur le même outil (un petit semapps avec une taxo simple suffirait). L’avantage du web sémantique dans ce cas d’usage c’est la faible taille des fichiers qui permettent d’envisager de réemployer du vieux hardware en mode Jerry DIY vu que le gros de l’impact carbone c’est la fabrication des machines, la capacité du sémantique à gérer et exploiter d’importants jeux de données avec peu de mémoire sur l’ordi c’est très low-tech et frugal en cas de black out on peut imaginer avoir tout les logiciels et BDD en local sur ce type d’ordi fixe et pouvoir recréer un localnet avec des échanges de données manuels type clef USB ou des QG wifi où l’on viendrait mettre à jour ses données. Pour que ça marche les données doivent être standardisées et de faible poids de fichier… web sémantique.