21/07/2025
Décrypter le numérique sur 6 thématiques : découvertes, réflexions et créations de la semaine.
Nous assumons ce "partage de base" des données clés de ce référentiel, mais leur infographie (pdf) est claire et présente "une vision globale sur les différentes pratiques numériques" : il s'agit de données agrégées pour fournir des élements chiffrés sur notre environnement numérique selon diverses thématiques et tendances.
➡️ L'ARCOM est l'Autorité publique française de régulation de la communication audiovisuelle et numérique. A ce titre, elle suit les évolutions en ligne aussi bien côté citoyen que professionnel.
...Bien sûr on appréciera des analytics nous permettant de croiser ces données du référentiel des usages, à venir certainement 😊
‘Usages numériques en France’, Arcep, 7 July 2025 https://www.arcep.fr/actualites/actualites-et-communiques/detail/n/usages-numeriques-en-france-070725.html [accessed 19 July 2025]
Un article qui pourrait nous faire croire que nous nageons en pleine SF mais non, les processeurs à base de lumière (photons -> photonique) sont en train de rivaliser avec l'électronique moderne, voire même la dépasser : c'est en tout cas l'engagement pris par cette levée de fonds de près de 72 millions de dollars par la société Q.ANT que nous annonce cet article du siliconANGLE !
📢 Article siliconANGLE : Photonics processor maker Q.ANT raises $72M to transform AI computing
...C'est peu dire que cette technologie est en train de changer la donne : des calculs ultra-rapides (de l'ordre d'une demi-nanoseconde) pour une plus faible consommation d'energie (le photon ne génère pas de chaleur lors de son déplacement) !
Les gains de performance annoncés dans le domaine de l'IA, notamment le deep-learning, sont plus que considérables, mais là où le combat va être tout aussi révolutionnaire est bien celui qui se joue entre processeur photonique classique et processeurs photoniques quantiques utilisant des qubits.
➡️ Les qubits (quantum bits) sont les unités fondamentales d'information de l'informatique quantique, équivalents aux quantiques des bits classiques. La clé de voûte d'une révolution informatique en marche...
Cette poussée d'innovations techniques est une véritable locomotive et il est clair que cette technologie photonique est la véritable lame de fond de l'IA et bien plus encore.
Autrement dit, les applications de cette technologie photonique vont aller des centres de données, à l'IA comme aux services de télécommunications : actuellement, nous sommes déjà entrain d'assister à l'adoption de ces processeurs photoniques pour l'intelligence artificielle.
Un changement de paradigme. Non, on vous dit, une révolution.
‘Photonics Processor Maker Q.ANT Raises $72M to Transform AI Computing’, Infra, SiliconANGLE, 17 July 2025 https://siliconangle.com/2025/07/17/photonics-processor-maker-q-ant-raises-72m-transform-ai-computing/ [accessed 19 July 2025]
Une étude de METR (prononcer ‘meter’), organisation issue du projet « The Audacious Project » (hébergée par TED), concernant le sujet des procédures d'évaluation préalables au déploiement des IA, envisagées ici à l'étape du développement pour l'examen des modèles, les facteurs de risques et voire même de la gouvernance de ces projets.
↪️ Révélateur de la rapide structuration de l'écosytème IA, tout le monde s'accorde sur l'importance du pilotage de ces mêmes systèmes et chacun propose sa démarche.
Celle-ci a retenu notre attention à la fois pour le résultat proposé et pour la nécessité des évaluations contextuelles.
Cette enquête randomisée traite de l'impact des outils IA sur la productivité auprès de développeurs expérimentés, entre janvier et juin 2025.
🔥 Leur constat, celui d'un ralentissement de la productivité, est finalement cohérent avec l'adoption d'une nouvelle technologie : selon eux, 19% de temps supplémentaire dans la résolution de problèmes, ce qui contredit le principal argument pour l'usage des outils IA et les prédictions des économistes (39 % plus court) ou des experts en Machine Learning (38 % plus court).
Nous comprenons grâce à leur méthdologie qu'il ne peut absolument pas y avoir, d'une part, d'outil "IA universel". Comprendre les capacités des modèles reste l'un des principaux enjeux de ces évaluations. Il faut donc prendre en compte, d'autre part, dans la rentabilité de ces outils IA leur contexte d'usages comme la pratique du développeur à ce sujet, l'envergure et le niveau d'exigence sur les normes de qualité du projet.
La liste des facteurs favorisants le ralentissement de la productivité explicite la notion d'appropiation de ces outils IA qui demandent une période d'adaptation.
‘Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity’, METR Blog, 10 July 2025 https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/ [accessed 19 July 2025]
Dans le système de publication des revues scientifiques, l'évaluation par les pairs est la démarche de validation qui permet aux éditeurs de choisir les articles à publier.
Aujourd'hui, ce processus est de plus en plus décrié pour de multiples raisons : délai trop long, biais systématiques, peu de reconnaissance pour les relecteurs ; favorisant ainsi l'émergence de nouvelles approches comme la révision ouverte (Open Review).
Celle-ci appartient au mouvement mondial plus vaste de l'Open Science qui tend à rendre les processus de recherche et leurs données produites accessibles à tous et dans tous les niveaux de la société... [considérés] comme un "bien commun". (Wikipedia)
📢 Présentation de l'Open Peer Review ici
Au lieu de sélectionner des relecteurs, il est possible sous réserve que l'article soit librement accessible de déposer une évaluation ouverte à tous, de pouvoir accéder à leurs rapports et éventuellement de divulguer leur identité là où, dans le processus traditionnel, celle-ci demeure anonyme, procédant d'une lecture en simple ou en double aveugle.
↪️ C'est une forme de processus qualité qui doit garantir ce principe d'échanges et de débat intellectuel dans la transmission des savoirs.
Raison pour laquelle les interactions entre auteurs et relecteurs peuvent être directs, quand traditionnellement un éditeur sert d'intermédiaire, avec aussi des possibilités de commenter les prépublications ou les post-publications, éventuellement sur des plateformes ouvertes où révision et publication sont gérées par deux entités différentes.
⚠️ Les modalités de l'OPR sont donc très diverses et s'ancrent dans les nouvelles pratiques de recherche qui intègrent des processus informatiques à l'aide de flux de travail.
Ces changements sont considérables, témoignant à la fois du changement profond qu'ont amené la démocratisation des outils de communication liés à l'avènement du Web et de ces nouvelles compétences en littératie numérique.
L'architecture globale est celle du Client-Serveur : OpenReview utilise une interface web couplée à une API REST.
C'est donc une plateforme web moderne classique avec une architecture client-serveur RESTful, et non un système distribué peer-to-peer !
Il n'y a donc pas de communication directe entre reviewers, tous les clients communiquent avec un serveur central, le stockage des données est centralisé sur les serveurs d'OpenReview, avec un protocole HTTP/HTTPS standard.
OpenReview est construit sur une architecture web moderne, utilisant des technologies telles que :
Il faut comprendre qu'Open Review est un exemple d'application de ce principe de l'OPR, d'autres plateformes suivent ce modèle comme :
↪️ Chacune développe pour ses besoins son mode d'évaluation et nous avons choisi de présenter Open Review car on y retrouve des conférences ML/AI.
Cette nouvelle approche du processus de révision scientifique a pour but de rendre la démarche transparente et accessible, contrairement au système traditionnel où les révisions sont anonymes et confidentielles.
Après un peu plus d'une décennie, les évaluations sur ce mode de révision mettent en lumière les impacts de cette démocratisation du savoir.
Les avantages sont bien là :
Et les inconvénients aussi :
Ce système de Science Ouverte remet en lumière des problèmes déjà connus au-delà de la simple accessibilité technique, mais pour considérer les dimensions éthiques et sociales du partage et de la réutilisation des données : les défis sont de taille, on considère à tort ces questions comme des "problèmes de scientifiques".
On peut alors comprendre la farouche opposition de certains avec lesquels nous avons déjà eu l'occasion d'échanger (lors d'un groupe de réflexion sur le sujet à Montpellier), et même si certaines réticences sont justifiées comme la protection des participants (confidentialité, autonomie, non-malfaisance), il ne faudrait ni l'ignorer ni compromettre l'ouverture scientifique.
➡️ Accepter de voir pour qui ce type de système remet en question leur position habituelle et/ou traditionnelle permettra dans un premier temps de rassurer chacun sur ses prérogatives qui demandent à être revues dans le contexte actuel ; sans préjudicier de l'accessibilité de la recherche ou empêcher la libre circulation des savoirs.
Mais s'opposer à ces nouvelles pratiques de flux de travail ressemblerait à refuser l'utilisation du microscope pour prôner la supériorité d'une observation directe, débat d'un autre temps, car ce changement d'échelle est (là encore) une réalité : le partage des données est devenu pratiquement une norme (et pas uniquement dans le monde académique) avec toute l'infrastructure et les compétences nécessaires, évidemment pas à n'importe quelle condition, et les nouvelles technologies (IA, réseaux sociaux, base de données publiques etc.) ont accru certains risques.
Klebel, Thomas, and others, ‘The Academic Impact of Open Science: A Scoping Review’, preprint, OSF, 1 March 2025, doi:10.31235/osf.io/ptjub_v2 ‘L’explicabilité de l’IA : Un Problème Renouvelé Par Le Succès Du Deep Learning [1/3] | Linc’, n.d. https://linc.cnil.fr/lexplicabilite-de-lia-un-probleme-renouvele-par-le-succes-du-deep-learning-13 [accessed 19 July 2025]
‘OpenReview’, n.d. https://openreview.net/about [accessed 20 July 2025]
‘Pros and Cons of Open Peer Review’, Nature Neuroscience, 2.3 (1999), pp. 197–98, doi:10.1038/6295
Ross-Hellauer, Tony, ‘What Is Open Peer Review? A Systematic Review’, 6:588, preprint, F1000Research, 31 August 2017, doi:10.12688/f1000research.11369.2
Lors de la refonte de notre portfolio devenu (au bout de quelque mois) un site monolithique, nous avons pu appliquer et vérifier que l'architecture modulaire permettait une évolution rapide et sans impact sur notre workflow de publication.
📌 Lien vers blog scientifique : architecture modulaire
De cette manière, nous conservons à la fois :
A cela s'ajoute les différents référentiels crées pour ce flux de travail. Notre approche visait plusieurs points :
```code Portfolio (MD) → GitHub Issues → Validation → Newsletter HTML → LinkedIn → Archives ````
De cette manière, nous avons pu développer des outils pour nous faciliter la gestion de contenu et de publication en ligne, dans l'idée d'assurer cette présence numérique :
📝🔄 Newsletter Generator : Portfolio MD → Newsletter HTML (Github)
✅ Content Validator : GitHub Issues pour validation (Github)
📰 LinkedIn Manager : Newsletter → Posts LinkedIn (Gestionnaire de publication automatisé)
Mais notre dépôt GitHub PORTFOLIO n'est pas une API au sens technique du terme. Voici pourquoi :
Une API (Application Programming Interface) est une interface qui permet à des applications de communiquer entre elles via des protocoles standardisés (HTTP, REST, GraphQL, etc.). Elle expose des endpoints avec des méthodes définies (GET, POST, PUT, DELETE) et retourne généralement des données structurées (JSON, XML).
D'après mon workflow, mon dépôt PORTFOLIO est plutôt :
Dans mon cas, GitHub est utilisé comme un système de stockage de fichiers que mon générateur de newsletter consomme, ce qui est une approche tout à fait valide mais différente d'une API traditionnelle.
Pour l'instant, l'architecture répond parfaitement à nos besoins car nous avons pu :
Il y a donc à envisager plutôt l'ajout :
Et l'API sera utile si besoin de :
🤖 Plutôt sceptique dans son application à notre échelle, nous acceptons aujourd'hui le fait que nous serons tous impliqués, de plus en plus, dans ce type de processus, à travers ces flux de travail automatisés.
🔧 Prototyper n'est pas non plus un signe de sous-niveau : cette démarche permet de partir réellement des besoins pour obtenir ce qui nous convient et voir si cela fonctionne. Elle participe comme levier de transformation digitale dans l'organisation du travail.
↪️ Passer par une solution payante (et beaucoup plus aboutie) est une option toujours utile quand elle est adaptée aux besoins.
↪️Dans notre cas, cela nous aurait amputée de toute la démarche de compréhension et d'apprentissage qui nous semble nécessaire à l'adoption de nouveaux outils.
⚠️ La formation et l'enseignement sont toujours des leviers de transformation majeurs, des priorités urgentes. Plus personne ne se pose ici le pourquoi mais bien le comment !
Cela ne fait pas de nous une experte (?!) mais se sentir concernée pas des outils qui modèlent considérablement nos modes de vie et nos manières de penser sont, au même titre que notre alimentation, des préoccupations majeures.
Des simulations visuelles particulièrement esthétiques et intéressantes dans cette approche agentique : l'observation de ces comportements simulés grâce à des curseurs contrôlables rend l'expérience particulièrement hypnotique.
Les explications et références données, notamment celles sur le travail de Jeff Jones (auteur de cet algorithme sur la forme de ces motifs , foncer voir son travail!), permettent de rentrer dans cet univers plutôt étrange, voire quelque peu "unheimlich" : cette dissonnance cognitive n'est pas marquée car nous y voyons malgré tout une forme vivante (algorithme inspiré du Pysarum, le magnifique blob) nous permettant d'appréhender une de ces nombreuses réalités spatiales.
➡️ Merci à Etienne JACOB pour ce travail et à @gmie du réseau PIAILLE (MASTODON) pour ce joli partage.
‘Algorithms for Making Interesting Organic Simulations’, n.d. https://bleuje.com/physarum-explanation/ [accessed 19 July 2025] Ghosh, Sourangshu, ‘Mathematical Foundations of Deep Learning’, preprint, Engineering Archive, 7 April 2025, doi:10.31224/4355
Jones, Jeff, ‘Characteristics of pattern formation and evolution in approximations of physarum transport networks’, Artificial Life, 16.2 (2010), doi:10.1162/artl.2010.16.2.16202