Dernier article en date de Tim (28 sept), c’est rapide à lire…
« On a fait fausse route » : 35 ans plus tard, le créateur du Web a des regrets - Numerama
Dernier article en date de Tim (28 sept), c’est rapide à lire…
« On a fait fausse route » : 35 ans plus tard, le créateur du Web a des regrets - Numerama
Bonjour l’Assemblée Virtuelle, j’espère que vous allez bien !
J’ai commencé à regarder Charlie, qui est un peu plus détaillé ici : Charlie Works - Design Issues.
La question que je me pose, c’est est-ce que le contenu fourni à une IA via l’accès en lecture à un pod est bien protégé, n’y a-t-il aucun risque que des bots scrapent ce contenu ou que l’IA le garde en mémoire d’une façon ou d’un autre après l’avoir lu ?
Mes excuses si je certains aspects du fonctionnement de Solid et des LLMs m’échapent.
Raphaëlle Fourlinnie
A mon avis, dans le web actuel, la sécurité d’accès n’est pas technique, elle est politique.
Depuis peu, Google s’est octroyé le droit de regarder dans nos données personelles pour alimenter son IA :
Cette nouveauté majeure de Google pourra accéder à vos données personnelles pour des réponses plus précises — Frandroid
Concernant Charlie… heu… hé bien, entre une publication de Tim et la réalité, il y a un gouffre
Personnellement, je n’y crois pas une seconde vu la course actuel entre les 3 ou 4 géants de l’IA…
Je viens de lire en diagonal cet état de l’art sur des LLM multimodaux, fédéré et distribués, je me suis dit que ça pouvait éventuellement en intéresser certain.es ici : https://arxiv.org/pdf/2503.16585.
J’ai l’impression que des petits modèles locaux distribués et communautaires, orientés vers des cas d’usage spécifiques pourraient être un début d’alternative moins risqué que les LLMs actuels. Qu’en pensez-vous ? J’imagine qu’on en est encore loin, mais je serai intéressée si des gens veulent creuser dans cette direction.