Visual Field Test Logo

Les yeux grands ouverts : Comment le cadre d'*Autorecherche* de Karpathy pourrait démocratiser la recherche sur le glaucome — Un modèle pour la découverte pilotée par les patients et l'IA dans la restauration de la vision

•48 min de lecture
How accurate is this?
Article audio
Les yeux grands ouverts : Comment le cadre d'*Autorecherche* de Karpathy pourrait démocratiser la recherche sur le glaucome — Un modèle pour la découverte pilotée par les patients et l'IA dans la restauration de la vision
0:000:00
Les yeux grands ouverts : Comment le cadre d'*Autorecherche* de Karpathy pourrait démocratiser la recherche sur le glaucome — Un modèle pour la découverte pilotée par les patients et l'IA dans la restauration de la vision

Les yeux grands ouverts : Comment le cadre d'Autorecherche de Karpathy pourrait démocratiser la recherche sur le glaucome

Introduction

Le glaucome est une neuropathie optique chronique qui détruit progressivement les cellules ganglionnaires de la rétine (CGR) et entraîne une perte de vision irréversible. Il touche des millions de personnes dans le monde – environ 64,3 millions en 2013, avec une projection à plus de 110 millions d'ici 2040 (physionet.org). Il est préoccupant de constater qu'environ la moitié des cas restent non diagnostiqués jusqu'à ce que la perte de vision ait déjà commencé (physionet.org). Le traitement traditionnel du glaucome vise à abaisser la pression intraoculaire (PIO) par des médicaments ou la chirurgie, mais ces traitements ne peuvent ni inverser les dommages ni prévenir entièrement la cécité (pmc.ncbi.nlm.nih.gov) (physionet.org). Par conséquent, il existe un besoin urgent de nouvelles découvertes dans des domaines tels que la neuroprotection, la régénération des CGR/du nerf optique, et les thérapies géniques et cellulaires innovantes. Cependant, la recherche académique et pharmaceutique sur ces fronts reste sous-financée, en partie parce qu'il s'agit d'efforts à long terme et à haut risque. Parallèlement, les avancées en apprentissage automatique (ML) et en intelligence artificielle (IA) ouvrent de nouvelles approches pour l'analyse des données et la conception générative.

Des travaux récents (par exemple, le projet « autorecherche » d'Andrej Karpathy (www.theneuron.ai) (medium.com)) suggèrent que des agents IA peuvent exécuter de manière autonome des centaines de petites expériences sur un seul GPU en se basant uniquement sur de simples instructions de haut niveau. Dans ce paradigme, un humain rédige un court fichier program.md décrivant l'objectif de recherche, et un agent IA ajuste itérativement le modèle ou les hyperparamètres, effectuant des exécutions d'entraînement de 5 minutes, conservant les modifications réussies et rejetant les autres (medium.com) (www.theneuron.ai). Durant la nuit, cette boucle peut réaliser de l'ordre de 100 expériences, explorant l'architecture et l'espace des paramètres sans codage manuel.

Cet article explore comment le cadre d'autorecherche de Karpathy pourrait être appliqué à la recherche sur le glaucome par des patients motivés, des soignants, des scientifiques citoyens et des développeurs open source. Nous passerons en revue les domaines de recherche sur le glaucome sous-explorés (neuroprotection, régénération, etc.) et identifierons les tâches d'apprentissage automatique dans chaque domaine où l'expérimentation avec de petits modèles pourrait plausiblement aider. Pour chaque tâche, nous suggérerons des ensembles de données publics spécifiques, des modèles/architectures de référence, des métriques d'évaluation, et décrirons à quoi pourraient ressembler les instructions program.md de l'agent. Nous discuterons ensuite des étapes pratiques pour qu'une communauté puisse mettre en place et partager de telles expériences, y compris les considérations matérielles, la préparation des données et les plateformes de collaboration. Nous examinerons le contexte spécifique des thérapies de restauration de la vision et si les boucles de type autorecherche pourraient accélérer l'optimisation des prothèses neurales ou d'autres interventions. Enfin, nous aborderons la manière dont les hypothèses générées par les citoyens pourraient être validées et transmises aux cliniciens, et présenterons une feuille de route concrète de 90 jours pour le lancement d'une initiative d'autorecherche dirigée par les patients – y compris comment éviter les pièges du « théâtre de la recherche » et garantir un impact réel. Tout au long de l'article, nous citerons des sources actuelles sur la recherche sur le glaucome et l'IA en vision, visant à fournir un guide équilibré, réaliste et accessible.

1. Le paysage de la recherche sur le glaucome et les besoins non satisfaits

La recherche sur le glaucome s'étend sur plusieurs fronts – de la compréhension des mécanismes de la maladie au développement de nouvelles thérapies pour la neuroprotection et la restauration de la vision. De nombreux domaines prometteurs sont sous-financés :

  • Neuroprotection : Interventions qui protègent les CGR de la mort (indĂ©pendamment de la PIO). Des exemples incluent les facteurs neurotrophiques et le soutien mĂ©tabolique. Par exemple, des implants libĂ©rant le facteur neurotrophique ciliaire (CNTF) ont montrĂ© un potentiel lors des premiers essais (pmc.ncbi.nlm.nih.gov), et d'autres molĂ©cules comme le facteur de croissance nerveuse et la citicoline sont en cours d'Ă©tude (pmc.ncbi.nlm.nih.gov) (pmc.ncbi.nlm.nih.gov). Cependant, ces traitements ne sont pas encore la norme de soins, et des travaux supplĂ©mentaires sont nĂ©cessaires pour les transposer aux patients. Une revue de 2025 avertit que les thĂ©rapies neuroprotectrices contre le glaucome sont un « traitement futur » nĂ©cessitant d'autres essais (pmc.ncbi.nlm.nih.gov), ce qui reflète un besoin non satisfait.

  • RĂ©gĂ©nĂ©ration des CGR et du nerf optique : Une fois que les CGR et leurs axones meurent, la mĂ©decine actuelle n'a aucun moyen d'inverser ce processus. Certaines Ă©tudes animales utilisent des thĂ©rapies gĂ©niques pour reprogrammer les CGR ou stimuler la repousse. Par exemple, la rĂ©pression basĂ©e sur CRISPR de PTEN (un rĂ©gulateur de croissance nĂ©gatif) a favorisĂ© la repousse axonale dans les cellules neurales de rat (pmc.ncbi.nlm.nih.gov), et des expĂ©riences de co-dĂ©lĂ©tion de PTEN et SOCS3 ont entraĂ®nĂ© une rĂ©gĂ©nĂ©ration soutenue du nerf optique chez la souris (pmc.ncbi.nlm.nih.gov). Cependant, ces avancĂ©es restent au stade des modèles de laboratoire. La biologie sous-jacente – par exemple, comment rĂ©capituler le dĂ©veloppement rĂ©tinien ou contourner les inhibiteurs de croissance – est complexe. Il existe une Ă©norme demande de modalitĂ©s (petites molĂ©cules, gènes, biomatĂ©riaux) qui pourraient stimuler la survie des CGR ou la repousse axonale, mais la progression vers les essais cliniques chez l'homme est lente.

  • ThĂ©rapies gĂ©niques et cellulaires : De nouvelles technologies comme CRISPR, les vecteurs viraux et les CGR dĂ©rivĂ©es de cellules souches sont prometteuses pour le glaucome. Les stratĂ©gies incluent l'Ă©dition gĂ©nique pour rĂ©duire la PIO (par exemple, cibler la production d'humeur aqueuse) ou moduler les voies neurodĂ©gĂ©nĂ©ratives (pubmed.ncbi.nlm.nih.gov) (pmc.ncbi.nlm.nih.gov). Les cellules souches pourraient (thĂ©oriquement) remplacer les cellules du trabĂ©culum ou les CGR perdues et sĂ©crĂ©ter des facteurs protecteurs (pubmed.ncbi.nlm.nih.gov). Des travaux prĂ©liminaires ont montrĂ© que certains facteurs de transcription (par exemple Oct4-Sox2-Klf4) peuvent reprogrammer des non-CGR en neurones de type CGR chez la souris (restaurer la vision en cas de lĂ©sion du nerf optique) (pmc.ncbi.nlm.nih.gov). Cependant, ces approches sont confrontĂ©es Ă  des dĂ©fis de sĂ©curitĂ© et de livraison avant d'atteindre les patients. Plusieurs revues rĂ©centes soulignent la thĂ©rapie gĂ©nique comme une frontière passionnante mais pas encore clinique pour le glaucome (pubmed.ncbi.nlm.nih.gov) (pmc.ncbi.nlm.nih.gov). En somme, les innovations molĂ©culaires et cellulaires progressent, mais les ressources et les donnĂ©es d'essais sont limitĂ©es – crĂ©ant une opportunitĂ© pour l'exploration computationnelle (par exemple, la conception de constructions virales optimales ou la prĂ©diction d'Ă©ditions gĂ©niques efficaces).

  • Stimulation Ă©lectrique et optogĂ©nĂ©tique pour la restauration de la vision : Pour les patients atteints de glaucome avancĂ© (ou de maladies combinĂ©es comme la rĂ©tinite pigmentaire), les prothèses visuelles artificielles ou les thĂ©rapies optogĂ©nĂ©tiques visent Ă  contourner les CGR endommagĂ©es. Les implants rĂ©tiniens (rĂ©seaux d'Ă©lectrodes Ă©pirĂ©tiniens ou sous-rĂ©tiniens) et les implants corticaux ont gĂ©nĂ©rĂ© des perceptions artificielles (« phosphènes »), mais la rĂ©solution est faible et les rĂ©sultats varient considĂ©rablement. Une revue rĂ©cente de 2025 sur l'IA dans les prothèses visuelles note que « les algorithmes d'IA sont prometteurs pour optimiser la vision prothĂ©tique, en particulier grâce Ă  l'amĂ©lioration de l'extraction de la saillance d'image et des stratĂ©gies de stimulation », bien que jusqu'Ă  prĂ©sent la plupart des Ă©tudes soient des simulations (pmc.ncbi.nlm.nih.gov). En d'autres termes, l'apprentissage automatique peut aider Ă  transformer les images de camĂ©ra en modèles de stimulation les plus informatifs compte tenu des limites de l'appareil. L'optogĂ©nĂ©tique (rendre les cellules rĂ©tiniennes survivantes sensibles Ă  la lumière) et les impulsions de stimulation Ă©lectrique transcornĂ©enne (TES) sont Ă©galement en cours d'essai pour la perte de vision liĂ©e au glaucome. Tous ces domaines nĂ©cessitent un ajustement Ă©tendu des paramètres (par exemple, les modèles spatiotemporels de stimulation, les vecteurs d'expression gĂ©nique) — des tâches potentiellement adaptĂ©es Ă  la recherche autonome par ML.

  • MĂ©canismes indĂ©pendants de la PIO : Beaucoup de personnes continuent de perdre la vision malgrĂ© une PIO bien contrĂ´lĂ©e. Des facteurs tels qu'une altĂ©ration du flux sanguin oculaire, un dysfonctionnement neurovasculaire ou un stress mĂ©tabolique dans la tĂŞte du nerf optique sont reconnus mais pas entièrement compris. Des Ă©tudes gĂ©nĂ©tiques suggèrent des composantes importantes du risque de glaucome « indĂ©pendantes de la PIO » (pubmed.ncbi.nlm.nih.gov) (pubmed.ncbi.nlm.nih.gov). Des biomarqueurs de ces processus (au-delĂ  de la pression) sont nĂ©cessaires de toute urgence. De plus, la moitiĂ© des patients atteints de glaucome souffrent de la maladie Ă  « tension normale », soulignant que la PIO Ă©levĂ©e n'est pas le seul coupable. La recherche sur les facteurs vasculaires ou d'autres voies de dommages est en cours mais fragmentĂ©e. La modĂ©lisation computationnelle ou l'exploration de grands ensembles de donnĂ©es (par exemple, des Ă©tudes d'association Ă  l'Ă©chelle du gĂ©nome) pourrait aider Ă  identifier de nouveaux mĂ©canismes ou cibles thĂ©rapeutiques dans ce domaine.

  • DĂ©couverte de biomarqueurs par imagerie et champs visuels : La dĂ©tection prĂ©coce et le suivi du glaucome reposent souvent sur l'imagerie (photos du fond d'Ĺ“il, OCT) et les tests fonctionnels (champs visuels). Des algorithmes avancĂ©s pourraient dĂ©couvrir des biomarqueurs subtils que les cliniciens humains ne remarquent pas. Par exemple, l'apprentissage profond a commencĂ© Ă  dĂ©tecter la perte de champ visuel prĂ©-pĂ©rimĂ©trique (changements invisibles Ă  l'analyse standard du champ) (pmc.ncbi.nlm.nih.gov). De mĂŞme, l'IA a Ă©tĂ© utilisĂ©e pour analyser les profils d'Ă©paisseur des couches OCT afin de prĂ©dire le glaucome avant un dommage manifeste. Cependant, il n'existe pas encore de biomarqueurs IA largement acceptĂ©s et utilisĂ©s cliniquement pour le dĂ©pistage ou la stratification du risque. Les goulots d'Ă©tranglement computationnels ici incluent le besoin de grands ensembles de donnĂ©es bien Ă©tiquetĂ©s et de protocoles de validation robustes (pmc.ncbi.nlm.nih.gov) (pmc.ncbi.nlm.nih.gov). Les dĂ©fis publics (REFUGE, AIROGS, etc.) ont commencĂ© Ă  standardiser les donnĂ©es, mais la couverture des maladies Ă  un stade prĂ©coce est mince (pmc.ncbi.nlm.nih.gov). La dĂ©couverte par machine de biomarqueurs multimodaux (combinant OCT, champs visuels, gĂ©nĂ©tique, etc.) reste une frontière ouverte.

Où l'apprentissage automatique à petit modèle peut-il aider ? Beaucoup des points ci-dessus décrivent des problèmes de haut niveau. Les goulots d'étranglement sont souvent la rareté des données, de nombreuses variables interactives et une biologie évoluant lentement. Là où un agent d'autorecherche excelle, c'est dans l'automatisation d'expériences à petite échelle sur les données disponibles. Par exemple, s'il existe un ensemble de données modeste de scans OCT avec et sans glaucome précoce, un scientifique citoyen peut mettre en place une boucle rapide de test de modèles pour trouver l'architecture qui les distingue le mieux. De même, de petits transformateurs sur la génomique ou la littérature pourraient suggérer de nouveaux gènes ou médicaments candidats. La clé est de se concentrer sur des tâches ciblées avec des métriques définies (précision de classification, AUC, perte) et d'itérer rapidement. Les domaines avec des données publiques limitées (par exemple, les paramètres TES ou les nouveaux cocktails de gènes) pourraient s'appuyer sur des données synthétiques ou des substituts. Dans la section suivante, nous associons des tâches spécifiques de ML sur le glaucome à l'approche d'autorecherche.

2. Cartographie de l'Autorecherche aux problèmes de glaucome

Le cadre d'autorecherche de Karpathy est agnostique au domaine : il peut exécuter des expériences dans n'importe quelle tâche de ML fournie par un prepare.py et un train.py avec une métrique d'évaluation bien définie. Nous identifions plusieurs tâches concrètes liées au glaucome et spécifions comment un agent pourrait aborder chacune d'elles. Chaque cas d'utilisation ci-dessous comprend : un ensemble de données publiquement disponible (si possible), un modèle ou une architecture de départ, une métrique d'évaluation, et une esquisse des instructions program.md.

2.1 Analyse d'images OCT (détection structurelle et segmentation)

  • Tâche : DĂ©tection prĂ©coce du glaucome Ă  partir de scans OCT. L'imagerie OCT fournit des vues en coupe transversale des couches rĂ©tiniennes. L'amincissement de la couche de fibres nerveuses rĂ©tiniennes (CFNR) et du complexe de cellules ganglionnaires (CCG) peut prĂ©cĂ©der la perte du champ visuel. Nous pouvons traiter cela comme une tâche de classification (glaucome vs sain) ou de rĂ©gression (par exemple, Ă©paisseur de la CFNR en sortie).

    • Jeu de donnĂ©es : Une publication rĂ©cente, SYN-OCT (www.nature.com), est un jeu de donnĂ©es synthĂ©tique de 200 000 images OCT circumpapillaires (100k glaucome, 100k normales) gĂ©nĂ©rĂ©es par des GAN. Chaque image a une Ă©paisseur de CFNR et des masques de segmentation associĂ©s. Ceux-ci sont publiquement disponibles sur Zenodo (www.nature.com). (Bien que synthĂ©tiques, ils sont statistiquement validĂ©s pour imiter les OCT rĂ©els (www.nature.com).) Alternativement, on pourrait utiliser le jeu de donnĂ©es OCT-DL (www.nature.com) (2064 images de diverses maladies rĂ©tiniennes) ou des collections OCT cliniques plus petites.
    • Modèle : Commencer avec un petit rĂ©seau neuronal convolutif (CNN). Pour la classification, un modèle avec environ 3 Ă  5 couches de convolution (par exemple, analogue Ă  un ResNet-18 tronquĂ©, ou un petit CNN personnalisĂ©) peut fonctionner. Pour la segmentation de la CFNR/CCG, un encodeur-dĂ©codeur comme un petit U-Net (avec une profondeur de 3 Ă  4) est adaptĂ©. Le fichier train.py initial pourrait implĂ©menter un CNN simple et une boucle d'entraĂ®nement, avec des hyperparamètres par dĂ©faut.
    • MĂ©trique : Si l'on effectue une classification du glaucome sur OCT, utiliser l'AUC (aire sous la courbe ROC) ou la prĂ©cision sur un Ă©chantillon de validation. Pour la segmentation, utiliser le coefficient de Dice ou l'IoU sur les masques de la couche CFNR (SYN-OCT fournit des masques (www.nature.com)).
    • Exemple de program.md :

      « Objectif : Maximiser l'AUC de validation pour la détection du glaucome à partir d'images OCT. Modifications autorisées : nombre de couches de convolution, nombre de filtres, tailles de noyau, fonctions d'activation, taux d'apprentissage, choix de l'optimiseur, taille du lot, etc. Après chaque exécution d'entraînement de 5 minutes, évaluer l'AUC sur l'ensemble de validation. Si l'AUC s'améliore, conserver le changement ; sinon, revenir en arrière. » (medium.com) (www.theneuron.ai).
      L'agent essaiera ainsi des variations (par exemple, ajouter des couches, ajuster la largeur, passer d'Adam à RMSProp) pour améliorer l'AUC.

  • Tâche : Segmentation des couches CFNR/CCG. La mesure prĂ©cise de l'Ă©paisseur de la CFNR est cruciale. En utilisant des scans OCT synthĂ©tiques (avec des segmentations fournies) ou tout OCT rĂ©el avec des couches annotĂ©es, on peut formuler cela comme une tâche de segmentation.

    • Jeu de donnĂ©es : SYN-OCT fournit Ă  nouveau des masques de segmentation CFNR (www.nature.com)). Une autre source : certains groupes universitaires ont Ă©tiquetĂ© des B-scans OCT (bien que souvent propriĂ©taires). Si nĂ©cessaire, on pourrait utiliser des jeux de donnĂ©es de segmentation OCT gĂ©nĂ©riques (comme le dĂ©fi de fluide rĂ©tinien OCT de Duke (www.nature.com)) comme substituts.
    • Modèle : Un petit CNN de type U-Net, peut-ĂŞtre mĂŞme une version rĂ©duite en canaux Ă  partir d'une ligne de base. Par exemple, utiliser 3 blocs de down/up, en commençant avec 16 filtres. L'agent est autorisĂ© Ă  modifier la profondeur et la largeur.
    • MĂ©trique : Score de Dice ou IoU moyenne du masque CFNR prĂ©dit par rapport Ă  la vĂ©ritĂ© terrain.
    • Exemple de program.md :

      « Objectif : Maximiser le score de Dice pour la segmentation de la couche CFNR sur OCT. Le modèle de base est un U-Net à 3 blocs. L'agent peut faire varier le nombre de filtres, ajouter du dropout, ou modifier le taux d'apprentissage. Entraîner pendant 5 minutes à chaque essai et calculer le Dice sur la validation. Conserver les modifications qui augmentent le Dice. »

  • Tâche : PrĂ©diction de la progression via OCT sĂ©quentielle. En utilisant des OCT sĂ©quentielles, prĂ©dire l'amincissement futur. Si des donnĂ©es OCT longitudinales existent (par exemple, donnĂ©es de la UK Biobank ou de cliniques privĂ©es), l'objectif pourrait ĂŞtre de prĂ©dire le changement de la CFNR ou une Ă©tiquette binaire « progresseur rapide ».

    • Jeu de donnĂ©es : Les donnĂ©es OCT longitudinales publiques spĂ©cifiques au glaucome sont rares. Cependant, on pourrait rĂ©utiliser des donnĂ©es de dĂ©fi SR OCT (ou des images SYN-OCT avec progression simulĂ©e) pour simuler cette tâche. Alternativement, utiliser les images OCT de l'UK Biobank (bien que non spĂ©cifiques au glaucome et difficilement accessibles aux scientifiques citoyens). Ă€ titre d'illustration, supposons un jeu de donnĂ©es de scans OCT Ă  temps0 et temps1 avec des Ă©tiquettes.
    • Modèle : Un CNN siamois ou concatĂ©nĂ© prenant des paires d'images OCT, produisant la probabilitĂ© de progression. Commencer par alimenter le temps0 et prĂ©dire le seuil de temps1.
    • MĂ©trique : AUC pour la classification binaire de la progression, ou MSE si l'on tente de prĂ©dire le changement d'Ă©paisseur.
    • Exemple de program.md :

      « Objectif : Identifier les yeux qui subiront une perte rapide de la CFNR. Entrée : OCT de base ; étiquette : amincissement >5μm après 1 an. Nous utilisons un classificateur CNN. Les changements autorisés incluent la profondeur du réseau, le taux d'apprentissage, l'augmentation. Utiliser l'AUC de validation comme métrique. »

2.2 Analyse du champ visuel (CV)

  • Tâche : PrĂ©dire la perte future du champ visuel. Étant donnĂ© un ou plusieurs tests de champ visuel de Humphrey passĂ©s (valeurs de sensibilitĂ© ponctuelles), prĂ©voir la sensibilitĂ© future ou le taux de progression. C'est un problème classique de gestion du glaucome.

    • Jeu de donnĂ©es : Le jeu de donnĂ©es GRAPE (www.nature.com) (2023) fournit un suivi longitudinal de 263 yeux (1115 enregistrements) avec CV et fond d'Ĺ“il/OCT, y compris la progression annotĂ©e. Une autre ressource est la base de donnĂ©es longitudinale amĂ©ricaine UH Visual Field (UWHVF) (www.nature.com) (28 943 champs pour de nombreux patients). Cependant, GRAPE est bien organisĂ© et public avec Ă  la fois les CV et les rĂ©sultats.
    • Modèle : Une approche simple est un rĂ©seau feed-forward (entièrement connectĂ©) sur les donnĂ©es de CV Ă  54 points (ou compresser en indices globaux). Pour la prĂ©diction de progression, un MLP plus petit ou un CNN 1D peut gĂ©rer les 54 ou 30 caractĂ©ristiques d'entrĂ©e. Une autre idĂ©e : traiter la grille 8Ă—8 comme une petite image et utiliser un petit CNN (par exemple, des noyaux 3Ă—3).
    • MĂ©trique : Si l'on prĂ©dit la dĂ©viation moyenne future ou les valeurs des points, utiliser le MSE (plus bas est mieux). Si l'on classe « progresseur rapide vs non », utiliser l'AUC.
    • Exemple de program.md :

      « Objectif : Minimiser le MSE du champ visuel prédit. Alternativement, maximiser l'AUC pour la classification de la perte rapide. Modèle de base : perceptron à 2 couches sur 54 valeurs de CV. L'agent peut ajuster la taille cachée, l'activation ou ajouter du dropout. Après chaque entraînement de 5 minutes, calculer la métrique sur l'ensemble de validation. »

  • Tâche : Identifier les progresseurs rapides. En utilisant une sĂ©rie de CV passĂ©s, classer les yeux qui perdront rapidement la vision.

    • Jeu de donnĂ©es : Utiliser le statut de progression annotĂ© dans GRAPE (www.nature.com) (ils ont marquĂ© les yeux comme progressĂ©s). Ou prendre UWHVF et Ă©tiqueter le dĂ©cile supĂ©rieur de perte de DM comme « rapide ».
    • Modèle : Pourrait concatĂ©ner les caractĂ©ristiques de deux ou trois champs consĂ©cutifs (ou diffĂ©rences) dans un petit rĂ©seau. Inclure Ă©ventuellement la PIO de base et l'âge si disponibles.
    • MĂ©trique : AUC pour distinguer les progresseurs rapides des lents.
    • Exemple de program.md :

      « Objectif : Maximiser l'AUC pour la prédiction de la progression rapide du champ visuel. Caractéristiques d'entrée : différences de second ordre des CV1 et CV2, plus la PIO. Utiliser un petit réseau FC. L'agent peut ajuster les largeurs de couche, le taux d'apprentissage, la taille du lot. »

2.3 Criblage de médicaments/composés (Découverte de candidats in silico)

  • Tâche : PrĂ©dire des composĂ©s neuroprotecteurs/rĂ©gĂ©nĂ©ratifs candidats. Utiliser le ML pour trouver de petites molĂ©cules qui pourraient protĂ©ger les CGR ou encourager la rĂ©gĂ©nĂ©ration. Par exemple, de nombreux composĂ©s connus (comme la nicotinamide, le valproate) montrent des effets neuroprotecteurs. Nous pouvons entraĂ®ner des modèles Ă  reconnaĂ®tre les chimiotypes corrĂ©lĂ©s Ă  une efficacitĂ© connue, puis rechercher dans l'espace chimique.
    • Jeu de donnĂ©es : C'est un dĂ©fi en raison de l'absence d'une base de donnĂ©es dĂ©diĂ©e aux mĂ©dicaments contre le glaucome. Ă€ titre de substitut, on pourrait utiliser les jeux de donnĂ©es MolNet (par exemple, inhibition du VIH, permĂ©abilitĂ© de la BHE) ou tout jeu de donnĂ©es de bioactivitĂ©. Alternativement, compiler une liste de composĂ©s testĂ©s dans des modèles de lĂ©sion du nerf optique (issus de l'exploration de la littĂ©rature) avec des Ă©tiquettes. En pratique, on pourrait commencer par une propriĂ©tĂ© plus gĂ©nĂ©rique (par exemple, des donnĂ©es de pĂ©nĂ©tration de la barrière hĂ©mato-encĂ©phalique de MoleculeNet).
    • Modèle : Un petit transformateur ou un rĂ©seau neuronal graphique sur des chaĂ®nes SMILES. Un transformateur (de style GPT-2) avec peu de couches ou un simple rĂ©seau convolutif graphique (par exemple, 3 couches GCN) peut ĂŞtre implĂ©mentĂ© dans le train.py.
    • MĂ©trique : Si l'on traite comme une classification (actif vs inactif), utiliser l'AUROC. Si l'on prĂ©dit l'affinitĂ© ou le logP, utiliser le RMSE.
    • Exemple de program.md :

      « Objectif : Maximiser le ROC-AUC de classification pour l'identification de composés de type neuroprotecteur. Modèle de base : petit transformateur sur SMILES. L'agent peut ajuster le nombre de couches de transformateur, le dropout, le taux d'apprentissage, ou utiliser des caractéristiques alternatives (par exemple, entrée d'empreinte digitale). Après chaque 5 minutes, évaluer l'AUC sur les molécules de validation. »

(Note : Étant donné la rareté des données publiques sur la neuroprotection réelle, cette tâche est plus illustrative. En pratique, les scientifiques citoyens pourraient créer un jeu de données personnalisé de composés neuroprotecteurs connus par rapport à des contrôles et suivre ce modèle.)

2.4 Modélisation de réseaux de régulation génique (CGR unicellulaires)

  • Tâche : Identifier les combinaisons de TF rĂ©gĂ©nĂ©ratifs. Utiliser les donnĂ©es de RNA-seq unicellulaires des CGR pour apprendre les profils transcriptionnels de la croissance rĂ©gĂ©nĂ©rative. Par exemple, certains sous-types de CGR se rĂ©gĂ©nèrent mieux que d'autres. Un modèle de ML pourrait prĂ©dire une Ă©tiquette d'« Ă©tat rĂ©gĂ©nĂ©ratif », et on pourrait inspecter quels facteurs de transcription sont importants.
    • Jeu de donnĂ©es : Une Ă©tude de 2018 fournit des transcriptomes unicellulaires de CGR (accès GEO GSE115404) (pmc.ncbi.nlm.nih.gov), identifiant des sous-types distincts de CGR. Nous pouvons utiliser cet ensemble de donnĂ©es (ou un sous-ensemble) oĂą les cellules sont Ă©tiquetĂ©es par sous-type ou par condition expĂ©rimentale (par exemple, avant vs après blessure).
    • Modèle : Un petit transformateur ou un MLP fonctionnant sur des vecteurs d'expression gĂ©nique (chaque cellule ayant des milliers d'abondances gĂ©niques). En pratique, on prĂ©sĂ©lectionnerait environ 500 gènes principaux (par exemple, les gènes hautement variables). Le train.py pourrait implĂ©menter un mini-transformateur (par exemple, 4 couches, embedding 256) ou un simple perceptron Ă  2 couches.
    • MĂ©trique : Si l'on utilise une analyse non supervisĂ©e, on pourrait utiliser le score de silhouette, mais plus simplement, si l'on Ă©tiquette les cellules comme « en rĂ©gĂ©nĂ©ration » vs « non » (si des Ă©tiquettes existent), utiliser la prĂ©cision/AUC de classification.
    • Exemple de program.md :

      « Objectif : Construire un modèle distinguant les profils d'expression génique des CGR en régénération et non en régénération. Commencer avec un transformateur à 3 couches. L'agent peut modifier la dimension d'embedding, la profondeur, le taux d'apprentissage, ou ajouter une normalisation par lot. Optimiser la précision de validation. »
      Après les exécutions, les poids d'attention ou les caractéristiques apprises du meilleur modèle pourraient mettre en évidence des facteurs de transcription clés pour l'expérimentation.

2.5 Analyse des signaux électrophysiologiques

  • Tâche : DĂ©tecter un dysfonctionnement subclinique des CGR via l'ERG. L'Ă©lectrorĂ©tinogramme Ă  motifs (pERG) ou d'autres signaux Ă©lectrophysiologiques peuvent rĂ©vĂ©ler la santĂ© des CGR. Par exemple, des rĂ©ponses ERG retardĂ©es ou rĂ©duites peuvent prĂ©cĂ©der des dĂ©ficits du champ visuel. Nous pouvons tenter de classer les signaux comme « normaux » ou « suspects de glaucome ».
    • Jeu de donnĂ©es : Les jeux de donnĂ©es ERG publics sur le glaucome sont rares. On pourrait utiliser un substitut : un jeu de donnĂ©es provenant d'animaux (dĂ©gĂ©nĂ©rescence rĂ©tinienne) ou des signaux synthĂ©tiques. Si indisponible, mĂŞme des jeux de donnĂ©es Ă©lectrophysiologiques 1D gĂ©nĂ©riques (par exemple, ECG) pourraient illustrer le pipeline.
    • Modèle : Un CNN 1D (par exemple, 2 couches convolutives suivies de FC) sur les donnĂ©es de sĂ©ries temporelles. Alternativement, un LSTM peut ĂŞtre utilisĂ© si les sĂ©quences sont plus longues.
    • MĂ©trique : PrĂ©cision ou AUC dans la classification d'un dysfonctionnement subtil par rapport Ă  la normale. Éventuellement F1 si les classes sont dĂ©sĂ©quilibrĂ©es.
    • Exemple de program.md :

      « Objectif : Maximiser la précision de validation pour la classification des tracés ERG (sain vs motif de glaucome précoce). Utiliser un CNN 1D. L'agent peut ajuster les tailles de filtre, le pas, ou ajouter une couche récurrente. Conserver toute modification qui améliore la précision. »

2.6 Exploration de la littérature (Génération d'hypothèses)

  • Tâche : Affiner un petit modèle linguistique pour faire Ă©merger de nouvelles connaissances. Avec des milliers d'articles de recherche sur le glaucome dans PubMed, un agent de ML pourrait rechercher des liens ou des candidats Ă  rĂ©affecter. Par exemple, relier les voies neuroprotectrices Ă  des mĂ©dicaments existants. Nous pouvons traiter cela comme un problème de modĂ©lisation linguistique ou comme un problème de rĂ©cupĂ©ration.
    • Jeu de donnĂ©es : Compiler un corpus de rĂ©sumĂ©s liĂ©s au glaucome (par exemple, utiliser la recherche PubMed pour « thĂ©rapie gĂ©nique du glaucome », etc.). On peut tĂ©lĂ©charger environ 10 000 rĂ©sumĂ©s via les API NCBI. Pour un dĂ©but plus simple, utiliser les articles sur le glaucome en libre accès de PMC.
    • Modèle : Un petit modèle linguistique de type transformateur (par exemple, GPT-2 Ă  6 couches) ou mĂŞme BERT affinĂ©. Ă€ des fins d'autorecherche, nous affinerions probablement un modèle causal (GPT) sur le texte.
    • MĂ©trique : GĂ©nĂ©ralement, la perte de validation (perplexitĂ©) est optimisĂ©e. Si l'on effectue une classification (par exemple, Ă©tant donnĂ© un rĂ©sumĂ©, prĂ©dire une Ă©tiquette pour un mĂ©dicament ou une voie), utiliser la prĂ©cision/AUC.
    • Exemple de program.md :

      « Objectif : Minimiser la perplexité de validation d'un petit GPT-2 sur le corpus de littérature sur le glaucome. Utiliser des exécutions d'affinement de 5 minutes. L'agent peut faire varier le nombre de couches, la taille cachée, le taux d'apprentissage, la longueur du contexte. Conserver les changements qui réduisent la perplexité. »
      Une fois entraîné, on peut demander à ce modèle de générer des hypothèses (par exemple, « Meilleurs médicaments candidats réaffectables pour la neuroprotection dans le glaucome : ... »).

Dans chacun de ces domaines, la clé est qu'un seul GPU et des exécutions brèves permettent de nombreux essais. Nous n'attendons pas de l'agent qu'il code de nouveaux algorithmes à partir de zéro, mais qu'il ajuste un script d'entraînement existant. Le rôle humain consiste à écrire un program.md pour guider la recherche de l'agent vers un objectif spécifique au glaucome (comme maximiser l'AUC sur un ensemble de données de fond d'œil ou prédire l'épaisseur de la CFNR). Les exemples ci-dessus illustrent comment train.py pourrait être configuré initialement et comment program.md invite à améliorer une métrique choisie (medium.com) (www.theneuron.ai).

3. Guide pratique d'implémentation pour la science citoyenne

Comment des individus motivés disposant de ressources limitées (par exemple, une seule RTX 3060 ou un MacBook avec Apple Silicon) peuvent-ils réellement appliquer l'autorecherche aux problèmes de glaucome ? La bonne nouvelle est que le dépôt de Karpathy est petit et contient des instructions pour la mise à l'échelle. Voici les étapes et conseils clés :

  • Configuration de l'environnement : Cloner le dĂ©pĂ´t karpathy/autoresearch. Vous aurez besoin d'un Python moderne et idĂ©alement d'un accès Ă  un LLM (l'agent lui-mĂŞme est gĂ©nĂ©ralement un LLM prĂ©-entraĂ®nĂ© comme GPT-4 ou Claude qui modifie le code). Pour les GPU, installer PyTorch avec le support CUDA/metal appropriĂ©. Pour Apple Silicon, utiliser l'un des forks (par exemple, MLX) ou une version de PyTorch pour M1/M2 (voir la documentation du dĂ©pĂ´t). Sous Windows/Linux avec une 3060 ou une 4070, PyTorch CUDA normal fonctionne.

  • Configuration pour petit GPU : L'autorecherche par dĂ©faut utilise un modèle de type GPT d'environ 50 millions de paramètres et des sĂ©quences de longueur 1024 (medium.com), ce qui peut ĂŞtre lourd. Pour une GTX 3060 (12 Go), vous devriez rĂ©duire la taille du modèle et la longueur de la sĂ©quence. Dans train.py, dĂ©finissez MAX_SEQ_LEN=512 ou mĂŞme 256. RĂ©duisez le nombre de couches et la largeur (le GPT moyen est d'environ 8 couches ; essayez 4 couches, 256 de largeur). Les instructions de la communautĂ© mentionnent de rĂ©duire la « PROFONDEUR », la « LARGEUR », etc. Vous pouvez Ă©galement rĂ©duire la mĂ©moire de l'optimiseur en utilisant des tailles de lot plus petites (mĂŞme 16 ou 8). L'agent peut toujours muter ces paramètres, mais lui donner un point de dĂ©part plus petit garantit des exĂ©cutions <5 minutes. Le README du dĂ©pĂ´t GitHub d'autoresearch et les discussions sur les problèmes indiquent Ă©galement que les puces Mac M1 peuvent gĂ©rer des sĂ©quences plus courtes (par exemple, 256 jetons) en raison d'une mĂ©moire limitĂ©e ; une mise Ă  l'Ă©chelle similaire s'applique Ă  tout GPU.

  • PrĂ©paration des donnĂ©es sur le glaucome : Les donnĂ©es de chaque tâche doivent ĂŞtre chargĂ©es et divisĂ©es. Les jeux de donnĂ©es publics sur le glaucome incluent :

    • Jeux de donnĂ©es du fond d'Ĺ“il : ORIGA(-light) (650 images Ă©tiquetĂ©es (pubmed.ncbi.nlm.nih.gov)), RIM-ONE DL (485 images avec segmentations de la papille/disque (github.com)), REFUGE (plus de 1200 images, avec des divisions entraĂ®nement/test (refuge.grand-challenge.org)), le nouveau jeu de donnĂ©es Hillel Yaffe Glaucoma (HYGD) avec environ 1200 images du fond d'Ĺ“il et des Ă©tiquettes de haute qualitĂ© (physionet.org). EyePACS/AIROGS (des dizaines de milliers d'images rĂ©tiniennes) est Ă©galement publiquement accessible via inscription (par exemple, Kaggle).
    • Jeux de donnĂ©es OCT : SYN-OCT (200k B-scans synthĂ©tiques avec masques CFNR (www.nature.com) (www.nature.com)), OCTDL (2064 images de diverses maladies rĂ©tiniennes (www.nature.com)), et d'autres provenant de dĂ©fis publics.
    • DonnĂ©es de champ visuel : GRAPE (263 yeux avec CV longitudinal plus images (www.nature.com)). UWHVF (28k tests de CV) est ouvert si vous le tĂ©lĂ©chargez depuis le rĂ©fĂ©rentiel de l'UniversitĂ© de Washington (www.nature.com). Certains dĂ©fis Kaggle incluent des donnĂ©es de CV.
    • Électrophysiologie : Aucun grand jeu de donnĂ©es ERG ouvert sur le glaucome n'est connu, mais on pourrait commencer par n'importe quelle donnĂ©e de signal norme vs glaucome accessible.
    • DonnĂ©es chimiques/gĂ©niques : Des jeux de donnĂ©es standards comme MoleculeNet (pour les composĂ©s) ou GEO (pour les gènes) peuvent ĂŞtre rĂ©utilisĂ©s. Par exemple, tĂ©lĂ©charger les comptes bruts GSE115404 (via requĂŞte GEO (pmc.ncbi.nlm.nih.gov)) et prĂ©traiter en matrices d'expression.

    Pour chaque tâche, vous avez besoin d'un prepare.py qui charge les données et définit train_set, val_set et une fonction d'évaluation. Le modèle de Karpathy s'attend à ce que prepare.py produise des données d'entraînement et une routine d'évaluation qui renvoie une perte ou une métrique. Par exemple, prepare.py pour RIM-ONE pourrait charger des images et des CC étiquetées comme glaucome, les diviser en dossiers d'entraînement/validation, et définir une fonction calculant l'AUC de validation. RÉFÉREZ-VOUS à [14†L71-L79] pour la structure de RIM-ONE.

  • Ajustement des donnĂ©es pour une petite Ă©chelle : Si les jeux de donnĂ©es sont volumineux (comme EyePACS ou SYN-OCT), vous pouvez sous-Ă©chantillonner pour crĂ©er un « petit » jeu de donnĂ©es de quelques centaines d'exemples (le modèle peut toujours apprendre quelque chose de prĂ©cieux sur un petit corpus). Le dĂ©pĂ´t d'autorecherche mentionne mĂŞme l'utilisation de petits jeux de donnĂ©es de type « TinyStories » pour fonctionner sur du matĂ©riel minuscule. Par exemple, choisir 500 images d'ORIGA (Ă©quilibrĂ©es), ou 1000 champs CV de GRAPE. De mĂŞme, pour le langage, on pourrait utiliser un sous-ensemble de 5 000 rĂ©sumĂ©s d'articles PubMed sur le glaucome. La clĂ© est un jeu de donnĂ©es fixe sur lequel l'agent itère. Assurez-vous de prĂ©-mĂ©langer et de diviser 80/20 afin que chaque exĂ©cution de 5 minutes voie la mĂŞme division entraĂ®nement/validation.

  • RĂ©daction des stratĂ©gies program.md : La communautĂ© devrait partager diffĂ©rentes invites program.md (comme des « recettes ») dans un système de contrĂ´le de version. Chaque fichier pourrait encoder une stratĂ©gie de recherche. Par exemple, une stratĂ©gie pourrait dire « augmenter la profondeur du rĂ©seau si la profondeur < 6, sinon rĂ©duire le taux d'apprentissage », tandis qu'une autre pourrait dire « se concentrer sur les changements d'augmentation de donnĂ©es ». Au fil du temps, les groupes peuvent comparer les stratĂ©gies qui ont donnĂ© de meilleures mĂ©triques sur les classements. Un bon program.md inclut un objectif (par exemple, maximiser l'AUC ou minimiser la perte de validation) et des indications sur les mutations autorisĂ©es (couches, filtres, LR). Le LLM de l'agent utilise ces instructions pour proposer des modifications de code. Maintenez les mĂ©triques standardisĂ©es (par exemple, toujours rapporter l'AUC pour les tâches de classification du glaucome) afin que les expĂ©riences soient comparables.

  • Collaboration communautaire : Pour rendre cet effort Ă©volutif, une communautĂ© de science citoyenne devrait s'organiser :

    • Journaux d'expĂ©riences partagĂ©s : Publier les rĂ©sultats de chaque expĂ©rience (par exemple, « L'exĂ©cution n°27 du programme-v1 a atteint un AUC de validation = 0,82 avec une largeur=4, profondeur=3 »).
    • MĂ©triques standardisĂ©es : DĂ©finir des mĂ©triques pour chaque tâche : par exemple, « AUC OCT glaucome », « AUC progression CV », « AUC attribut », etc. Un classement partagĂ© (similaire au val_bpb d'autoresearch) peut suivre les meilleurs scores. Par exemple, un Slack ou des GitHub Actions pourrait collecter le meilleur AUC de chaque agent chaque semaine.
    • program.md sous contrĂ´le de version : HĂ©berger tous les program.md dans un dĂ©pĂ´t GitHub. Les membres peuvent forker et proposer de nouvelles stratĂ©gies (via des pull requests) tout en conservant les versions historiques. De cette façon, plusieurs approches peuvent ĂŞtre testĂ©es en parallèle (par exemple, « program_word2vec.md » vs « program_transformer.md »).
    • Partage de donnĂ©es et de code : Utiliser des dĂ©pĂ´ts publics ou des notebooks pour les scripts de prĂ©paration des donnĂ©es, et partager les modifications de train.py trouvĂ©es par l'agent (pour la reproduction dans les frameworks ML standards). Des liens vers les sources de donnĂ©es originales (Kaggle, PhysioNet, Zenodo) garantissent que d'autres peuvent tĂ©lĂ©charger les mĂŞmes donnĂ©es.

En abaissant les barrières techniques (l'agent modifie le code, l'utilisateur modifie les instructions en Markdown) et en coordonnant les efforts (journaux partagés, classements), les scientifiques citoyens peuvent explorer collectivement les choix d'hyperparamètres/modèles pour ces problèmes de ML liés au glaucome. Essentiellement, ils investissent la créativité humaine dans la définition des objectifs, et laissent l'agent effectuer le travail fastidieux de 100 expériences par objectif pendant la nuit (medium.com) (www.theneuron.ai).

4. La restauration de la vision spécifiquement

La restauration de la vision – retrouver la vue après un dommage – est une cible particulièrement excitante pour l'optimisation basée sur l'IA. La recherche actuelle sur la restauration de la vision assistée par l'IA comprend les implants rétiniens, les prothèses corticales et l'optogénétique. Voici comment une boucle d'autorecherche pourrait s'intégrer :

  • Optimisation de l'encodage des prothèses visuelles : Les prothèses modernes (implants rĂ©tiniens ou camĂ©ras liĂ©es Ă  des rĂ©seaux d'Ă©lectrodes) tentent de traduire une image de camĂ©ra en motifs de stimulation Ă©lectrique que le cerveau interprète comme de la vue. Le dĂ©fi est que la « bande passante » des Ă©lectrodes est très limitĂ©e (souvent de seulement quelques dizaines Ă  quelques centaines de points) (pmc.ncbi.nlm.nih.gov). Un modèle de ML (un petit CNN ou transformateur) peut ĂŞtre entraĂ®nĂ© pour mapper les images d'entrĂ©e aux cartes de stimulation idĂ©ales, mais les meilleurs hyperparamètres ou architectures pour cette traduction sont inconnus. Un agent d'autorecherche pourrait exĂ©cuter 100 variations d'un modèle d'« encodeur neuronal » en quelques heures. Par exemple, configurer un jeu de donnĂ©es de paires image→stimulation (soit des phosphènes simulĂ©s, soit des donnĂ©es de patient) et demander Ă  l'agent d'optimiser le rĂ©seau d'encodage pour minimiser une perte de reconstruction ou maximiser une mĂ©trique d'utilitĂ© (intĂ©gritĂ© du contraste, prĂ©cision de reconnaissance). L'agent pourrait essayer d'ajouter des couches d'attention, de modifier les tailles de convolution ou d'ajuster les taux d'apprentissage. Sur de nombreuses exĂ©cutions, on pourrait trouver de petits rĂ©seaux qui fournissent des sorties prothĂ©tiques plus saillantes. Certains travaux rĂ©cents utilisent dĂ©jĂ  l'IA pour extraire la saillance visuelle pour les prothèses (pmc.ncbi.nlm.nih.gov); l'autorecherche pourrait automatiser l'ajustement de ces pipelines.

  • Motifs de stimulation optogĂ©nĂ©tique : En thĂ©rapie optogĂ©nĂ©tique, les CGR ou autres cellules rĂ©tiniennes survivantes sont rendues sensibles Ă  la lumière (via des gènes introduits). Les entrĂ©es d'une camĂ©ra doivent ensuite ĂŞtre encodĂ©es en impulsions lumineuses. Ici encore, un modèle de ML peut contrĂ´ler les motifs. On pourrait dĂ©finir une tâche simplifiĂ©e : un petit rĂ©seau transforme l'image de la camĂ©ra en une carte d'intensitĂ© lumineuse (mĂŞmes dimensions que les cellules). L'objectif de l'agent pourrait ĂŞtre de maximiser une mĂ©trique de stimulation efficace (par exemple, maximiser l'activation des cellules cibles dans une rĂ©tine simulĂ©e). Chaque essai pourrait exĂ©cuter une simulation rapide de la rĂ©ponse. Au fil des itĂ©rations, l'agent pourrait explorer les durĂ©es d'impulsion ou les filtres spatiaux. Par exemple, ajuster l'agressivitĂ© d'un filtre passe-haut sur l'entrĂ©e de la camĂ©ra pourrait ĂŞtre bĂ©nĂ©fique pour certains motifs. Le point est que de nombreux paramètres analogiques (noyaux de filtre, non-linĂ©aritĂ©, codage temporel d'impulsion) peuvent ĂŞtre balayĂ©s automatiquement.

  • Optimisation des motifs d'impulsions (TES et implants) : MĂŞme les domaines non liĂ©s Ă  l'apprentissage automatique peuvent bĂ©nĂ©ficier d'une recherche rapide. Par exemple, une Ă©tude rĂ©cente (Xie et al. 2025) a montrĂ© que des durĂ©es d'impulsion plus courtes et l'insertion d'intervalles interphases amĂ©lioraient significativement l'activation corticale pour les implants rĂ©tiniens (pmc.ncbi.nlm.nih.gov). Cela suggère que l'espace des paramètres de la stimulation Ă©lectrique a des effets forts et non intuitifs. Un agent d'autorecherche pourrait traiter les paramètres du protocole de stimulation (durĂ©e de phase, frĂ©quence, intervalle) comme des « paramètres de rĂ©seau » et exĂ©cuter de nombreuses petites expĂ©riences (chacune simulĂ©e ou empirique) pour maximiser la rĂ©ponse corticale. Par exemple, configurer un modèle Ă©lectrique simplifiĂ© (ou utiliser des donnĂ©es de potentiels Ă©voquĂ©s enregistrĂ©s) dans prepare.py et laisser l'agent ajuster les paramètres de train.py comme la synchronisation des impulsions pour maximiser une amplitude de rĂ©ponse dĂ©finie. C'est similaire Ă  l'automatisation de ce que les neuroscientifiques passionnĂ©s font manuellement.

  • Conception de vecteurs viraux et gĂ©omĂ©trie d'Ă©chafaudages : Dans le dĂ©veloppement de thĂ©rapies plus exploratoires, l'approche en boucle de l'agent pourrait Ă©galement s'attaquer aux optimisations biomĂ©dicales. Par exemple, la conception de capsides virales AAV ou de promoteurs pour cibler les CGR pourrait ĂŞtre guidĂ©e par de petits modèles prĂ©dictifs (par exemple, rĂ©gression logistique sur des caractĂ©ristiques de sĂ©quence). L'autorecherche pourrait essayer de modifier de manière rĂ©pĂ©tĂ©e un modèle qui prĂ©dit le tropisme ou l'expression (entraĂ®nĂ©, par exemple, sur de petites bibliothèques virales) pour amĂ©liorer cette prĂ©diction. De mĂŞme, si quelqu'un dispose d'un code de simulation pour la croissance dans des Ă©chafaudages nerveux (pour la rĂ©paration du nerf optique), l'agent pourrait ajuster les paramètres gĂ©omĂ©triques pour maximiser l'extension des axones. Ce sont des tâches avancĂ©es, mais qui s'inscrivent conceptuellement – l'« agent en tant qu'expĂ©rimentateur » pourrait ajuster les paramètres du modèle ou de la simulation pour des rĂ©sultats amĂ©liorĂ©s.

En résumé, tout aspect de la prothèse ou de la restauration visuelle qui repose sur des algorithmes paramétrés pourrait être amélioré par des itérations rapides. Il est important de noter que la limitation est que nous ne disposons généralement que de données de simulation pour beaucoup de ces tâches ; les tests réels sur des centaines de variantes de patients ne sont pas possibles. Mais l'autorecherche peut opérer in silico pour proposer les meilleurs candidats pour des tests cliniques ultérieurs. Comme l'a noté la revue sur les prothèses, « garantir que les phosphènes sont générés de manière fiable à des endroits précis… est un défi important » et « les modèles basés sur l'IA ont montré un potentiel » dans ce domaine (pmc.ncbi.nlm.nih.gov). L'autorecherche pourrait accélérer considérablement la recherche des meilleures configurations de ces modèles d'IA.

5. Passer Ă  l'impact clinique

Les résultats computationnels doivent finalement être reliés à la recherche et aux soins réels du glaucome. Comment les idées générées par l'autorecherche menée par les patients peuvent-elles être validées et avancées?

  • Collaboration avec des groupes de recherche : Les scientifiques citoyens devraient contacter les consortiums de recherche sur le glaucome Ă©tablis. Des exemples incluent le International Glaucoma Genetics Consortium (IGGC) et le consortium NEIGHBORHOOD, qui regroupent des donnĂ©es gĂ©nĂ©tiques et cliniques (pubmed.ncbi.nlm.nih.gov) (pmc.ncbi.nlm.nih.gov). Les dĂ©couvertes issues de l'autorecherche (par exemple, un nouveau gène candidat ou une hypothèse de repositionnement de mĂ©dicament) pourraient ĂŞtre partagĂ©es avec ces groupes pour un suivi expĂ©rimental. Des laboratoires de culture de tissus (par exemple, dans les grandes universitĂ©s) ou des chercheurs sur le sommeil pourraient tester des composĂ©s sur la survie des CGR. Les cliniciens universitaires peuvent corrĂ©ler tout biomarqueur ou classificateur d'images avec leurs donnĂ©es de patients sous l'approbation du comitĂ© d'Ă©thique (IRB). L'Ă©tablissement de dialogues entre les groupes de type hackathon et les laboratoires formels est essentiel.

  • Engagement des organisations de dĂ©fense des patients : Des groupes comme la Glaucoma Research Foundation ou la Cure Glaucoma Foundation financent souvent l'innovation centrĂ©e sur le patient. Ils pourraient parrainer des projets de preuve de concept ou des concours citoyens utilisant l'autorecherche. Ces organisations disposent de rĂ©seaux de cliniciens et pourraient aider Ă  orienter les pistes de modèles prometteuses vers la clinique. Par exemple, si un agent signale un mĂ©dicament existant approuvĂ© par la FDA comme neuroprotecteur, un groupe de dĂ©fense pourrait aider Ă  mettre en place un petit essai selon les protocoles appropriĂ©s. Mettre en avant les succès exigera de prĂ©senter les rĂ©sultats comme des hypothèses (et non des avis mĂ©dicaux) et d'assurer la transparence.

  • Garde-fous Ă©thiques et de sĂ©curitĂ© : Les scientifiques citoyens doivent utiliser uniquement des donnĂ©es publiques dĂ©personnalisĂ©es ou des donnĂ©es entièrement synthĂ©tiques. Toute utilisation de dossiers de patients rĂ©els nĂ©cessite un protocole approuvĂ© par un comitĂ© d'Ă©thique (IRB) (et probablement le consentement du patient). Les rĂ©sultats des boucles d'autorecherche doivent ĂŞtre clairement Ă©tiquetĂ©s comme gĂ©nĂ©rateurs d'hypothèses. Par exemple : « Ce modèle suggère que le mĂ©dicament X pourrait protĂ©ger les CGR – une validation expĂ©rimentale est nĂ©cessaire. » Les dĂ©cisions mĂ©dicales critiques doivent rester entre les mains des mĂ©decins. Les risques incluent la distribution involontaire de modèles qui prĂ©disent des rĂ©sultats personnels (progression du glaucome) – des avertissements explicites sont nĂ©cessaires pour ne pas les traiter comme des outils de diagnostic. Les meilleures pratiques en matière de confidentialitĂ© des donnĂ©es (par exemple, l'utilisation de champs agrĂ©gĂ©s ou anonymisĂ©s) sont indispensables.

  • PrĂ©cĂ©dents en science citoyenne : Il n'est pas sans prĂ©cĂ©dent que des amateurs contribuent Ă  la recherche mĂ©dicale/neuroscientifique. Le projet Eyewire (jeu de cartographie neuronale participatif du MIT) a mobilisĂ© des bĂ©nĂ©voles pour reconstruire les circuits neuronaux rĂ©tiniens (www.citizenscience.gov). En ophtalmologie, des non-experts ont aidĂ© Ă  annoter des images lors de dĂ©fis financĂ©s par OpenAI (par exemple, des jeux de donnĂ©es Ă©tiquetĂ©es pour les maladies oculaires). En dehors des soins oculaires, des jeux comme Foldit (Ă©nigmes de repliement de protĂ©ines) et Galaxy Zoo (classification de galaxies) montrent que la participation citoyenne peut rĂ©soudre des problèmes scientifiques difficiles. Ces succès encouragent l'idĂ©e que de nombreuses mains (et maintenant des IA) peuvent effectivement aider la recherche complexe. L'approche d'autorecherche revient Ă  donner Ă  chaque personne un assistant de laboratoire alimentĂ© par l'IA : les efforts participatifs prĂ©cĂ©dents n'utilisaient que des humains pour analyser des tâches fixes, tandis qu'ici l'humain fixe l'objectif et l'IA effectue l'itĂ©ration.

En étant transparente, prudente et collaborative, une initiative de science citoyenne d'autorecherche peut gagner la confiance. Elle devrait insister sur le fait de « générer des pistes, pas des prescriptions ». Si la communauté documente les méthodes et partage le code ouvertement, les chercheurs professionnels peuvent reproduire les découvertes. Par exemple, si quelqu'un trouve une nouvelle combinaison de facteurs protecteurs des CGR, il pourrait la publier en préimpression ou alerter un laboratoire. Les références de style citation (comme nous le faisons ici) aident à faire le lien : par exemple, « Nous avons traité votre liste de médicaments candidats dans le contexte de voies connues (pmc.ncbi.nlm.nih.gov). » En fin de compte, il s'agit d'une forme de science ouverte – axée sur le patient mais scientifiquement rigoureuse. Si les normes éthiques sont maintenues, une telle innovation de base a un grand potentiel pour susciter de nouvelles collaborations et, à terme, alimenter la recherche ophtalmologique examinée par les pairs.

6. Une feuille de route concrète de 90 jours

Un plan ciblé et à durée limitée peut rallier une communauté de 10 à 50 personnes (chacune avec au moins un GPU ou un Apple Silicon) pour lancer un effort d'autorecherche-pour-le-glaucome. Voici un plan par phases suggéré :

  • Semaines 1-2 : Formation et configuration

    • Recrutement et lancement : CrĂ©er un canal de communication (par exemple, Slack ou Discord) et un dĂ©pĂ´t GitHub pour le projet. Faire connaĂ®tre l'initiative auprès des forums de patients atteints de glaucome, des groupes de biohackers et des rencontres sur l'IA.
    • VĂ©rification du matĂ©riel : S'assurer que chacun peut installer PyTorch et cloner le dĂ©pĂ´t de Karpathy (ou le fork Maple). Organiser une session de configuration oĂą chaque membre exĂ©cute une boucle d'autorecherche sur un jeu de donnĂ©es jouet (par exemple, un sous-ensemble CIFAR-10) pour vĂ©rifier l'environnement.
    • SĂ©lection des jeux de donnĂ©es : DĂ©cider de 1 Ă  3 tâches initiales (par exemple, classification OCT, progression du CV). Pour chaque tâche, attribuer une petite Ă©quipe pour prĂ©parer les donnĂ©es : par exemple, une Ă©quipe tĂ©lĂ©charge les images RIM-ONE (github.com), une autre rĂ©cupère les champs GRAPE (www.nature.com), une autre collecte les rĂ©sumĂ©s de littĂ©rature. Les Ă©quipes doivent diviser les donnĂ©es en 80/20 et crĂ©er des Ă©bauches de prepare.py.
    • Modèles de rĂ©fĂ©rence : Pour chaque tâche, finaliser un train.py simple : par exemple, un petit CNN pour RIM-ONE, un MLP pour les CV. Choisir les mĂ©triques d'Ă©valuation (AUC, Dice, MSE).
    • RĂ©daction initiale du program.md : Chaque Ă©quipe rĂ©dige un fichier d'instructions initial (program.md) Ă©nonçant l'objectif et les modifications autorisĂ©es. Par exemple, pour RIM-ONE : « maximiser l'AUC de dĂ©tection du glaucome », pour GRAPE : « minimiser le MSE du CV ».
  • Semaines 3-6 : Premiers cycles d'expĂ©rimentation

    • ExĂ©cuter les boucles d'autorecherche : Chaque sous-groupe exĂ©cute l'agent sur sa tâche pendant la nuit (environ 100 exĂ©cutions de 5 minutes). Utiliser un seul program.md pour commencer, puis laisser les participants ajouter des variations (par exemple, « program_temp1.md »).
    • Collecter les rĂ©sultats : Chaque matin, les Ă©quipes examinent les journaux (le dĂ©pĂ´t enregistre automatiquement chaque exĂ©cution). Noter la meilleure mĂ©trique atteinte, les paramètres du modèle Ă  ce moment-lĂ , et tout changement notable dĂ©couvert par l'agent. Pour la transparence, pousser ces rĂ©sultats sur le GitHub partagĂ© (peut-ĂŞtre en CSV ou JSON).
    • ItĂ©ration et feedback : Comparer les exĂ©cutions. Une stratĂ©gie a-t-elle significativement surpassĂ© la ligne de base ? Si une sous-Ă©quipe constate peu de progrès, elle devrait ajuster program.md (par exemple, ĂŞtre plus agressive avec les changements de taux d'apprentissage). Chaque week-end, synthĂ©tiser les dĂ©couvertes lors d'une rĂ©union communautaire.
    • Outils : Utiliser Git pour le contrĂ´le de version sur program.md et sur les modèles de code. Envisager un Google Sheet partagĂ© ou un tableau wiki pour les classements (par exemple, « OCT-AUC : meilleur=0,85 par Alice ; VF-RMSE : meilleur=2,1 par Bob »). Cela motive une saine compĂ©tition et la transparence.
  • Semaines 7-12 : Affinement et diffusion

    • Affiner les expĂ©riences : Sur la base des premiers rĂ©sultats, affiner les tâches prometteuses. Par exemple, si le classificateur RIM-ONE a dĂ©passĂ© 0,90 d'AUC, essayer maintenant d'ajouter de l'augmentation de donnĂ©es ou un rĂ©seau lĂ©gèrement plus profond. Encourager le branching : certains peuvent essayer diffĂ©rentes architectures (par exemple, un Vision Transformer tiny au lieu d'un CNN). Les agents peuvent exĂ©cuter plusieurs variantes de program.md en parallèle.
    • Synthèse des rĂ©sultats : CrĂ©er de courts rapports sur chaque domaine (OCT, CV, etc.), rĂ©sumant ce qui a fonctionnĂ©. Par exemple, « Nous avons amĂ©liorĂ© le score Dice de segmentation du CCG de 0,60 Ă  0,75 en passant de l'activation ReLU Ă  GELU. » Utiliser un langage accessible aux non-experts (glossaire pour les termes de ML).
    • PrĂ©sentation communautaire : D'ici la semaine 10, rĂ©diger un article de blog ou une prĂ©sentation de diapositives rĂ©sumant l'initiative jusqu'Ă  prĂ©sent. Mettre en Ă©vidence toute dĂ©couverte non triviale (mĂŞme les rĂ©sultats « nuls » sont utiles Ă  partager). Inviter des retours de forums en ligne ; peut-ĂŞtre contacter un chercheur pour des commentaires (« Nous avons dĂ©couvert que X ajustements de rĂ©seaux neuronaux aident Ă  classer le glaucome prĂ©coce – des idĂ©es si cela s'aligne avec la physiologie ? »).
    • Planifier la diffusion : Identifier un ou deux laboratoires ou cliniciens en ophtalmologie intĂ©ressĂ©s par la collaboration. Les contacter avec les rĂ©sultats initiaux. Par exemple, se connecter avec les auteurs du jeu de donnĂ©es HYGD ou l'Ă©quipe GRAPE sur Twitter/LinkedIn, mentionner vos dĂ©couvertes citoyennes. Explorer les possibilitĂ©s de co-validation (par exemple, leur envoyer les poids du modèle entraĂ®nĂ© pour qu'ils les testent sur leurs donnĂ©es).
  • Au-delĂ  de 12 semaines : Prochaines Ă©tapes

    • Continuer les boucles sur les tâches les plus prometteuses et les nouvelles. Par exemple, si RIM-ONE donne de bons rĂ©sultats, s'attaquer ensuite Ă  REFUGE. Peut-ĂŞtre construire des modèles composites (ensemble de CNN).
    • Officialiser une page de projet ou une prĂ©publication dĂ©crivant l'effort.
    • Envisager d'organiser un hackathon pour attirer davantage de cerveaux, Ă©ventuellement en partenariat avec une association caritative pour le glaucome.

7. Risques, limites et évaluation honnête

L'idée de l'autorecherche pour le glaucome est ambitieuse, elle exige donc une honnêteté concernant les pièges potentiels :

  • Risque de surapprentissage et de motifs fallacieux : Les petits modèles sur de petits jeux de donnĂ©es bruyants s'accrochent souvent Ă  des coĂŻncidences. Un agent pourrait trouver un ajustement qui amĂ©liore l'AUC de validation simplement en surapprenant les idiosyncrasies. Par exemple, si un sous-ensemble d'images prĂ©sentait une marque d'annotation subtile, le rĂ©seau pourrait l'utiliser au lieu de vĂ©ritables caractĂ©ristiques du glaucome. Cela conduit Ă  une « duperie par descente de gradient ». Pour attĂ©nuer cela :

    • Toujours utiliser des jeux de test mis de cĂ´tĂ© (complètement sĂ©parĂ©s de tout ajustement) pour l'Ă©valuation finale.
    • Limiter la complexitĂ© : maintenir des modèles modestes et surveiller si l'agent approfondit ou Ă©largit excessivement le rĂ©seau au-delĂ  du raisonnable.
    • Si un modèle atteint un score quasi parfait trop rapidement, le remettre en question.
    • Utiliser des vĂ©rifications de bon sens : par exemple, brouiller les Ă©tiquettes et voir si l'AUC chute au hasard (si non, il y a une fuite).
  • Biais et qualitĂ© des donnĂ©es : Les jeux de donnĂ©es publics sur le glaucome proviennent souvent de populations restreintes (par exemple, ORIGA de Singapour) (pubmed.ncbi.nlm.nih.gov). Un modèle ajustĂ© Ă  ceux-ci pourrait ne pas gĂ©nĂ©raliser. Les expĂ©riences citoyennes devraient noter cette limitation. IdĂ©alement, plusieurs jeux de donnĂ©es (issus de diffĂ©rentes cohortes) sont utilisĂ©s pour vĂ©rifier la robustesse des rĂ©sultats.

  • Faux-semblants (« Théâtre de la recherche ») : ExĂ©cuter des tonnes d'expĂ©riences peut sembler productif, mais si chaque amĂ©lioration n'est que sur des jeux de donnĂ©es synthĂ©tiques ou triviaux, cela pourrait ne pas bĂ©nĂ©ficier aux patients. Pour Ă©viter cela :

    • Se concentrer sur des tâches ayant une pertinence clinique (par exemple, la dĂ©tection prĂ©coce Ă  partir d'OCT de routine).
    • Relier les rĂ©sultats Ă  des mesures rĂ©elles lorsque c'est possible (par exemple, l'AUC pour la progression, et pas seulement une petite diffĂ©rence de perte).
    • Prioriser l'interprĂ©tabilitĂ© : si l'agent « trouve » un nouveau biomarqueur, essayer de s'assurer qu'il a du sens (par exemple, se concentre-t-il sur des changements anatomiques connus ?).
  • Aucune garantie clinique : Il doit ĂŞtre clair comme de l'eau de roche : les rĂ©sultats de ces boucles sont gĂ©nĂ©rateurs d'hypothèses, pas des conseils mĂ©dicaux. Un modèle suggĂ©rant un nouveau mĂ©dicament doit ĂŞtre vĂ©rifiĂ© en laboratoire avant toute utilisation chez le patient. Les affirmations excessives sont dangereuses. Étiqueter tous les rĂ©sultats partagĂ©s avec des avertissements : « Ceci est une exploration par l'IA et non une dĂ©couverte examinĂ©e par des pairs. »

  • Limitation des « petits modèles » : Les rĂ©seaux très petits ont une capacitĂ© limitĂ©e. Ils peuvent manquer des motifs complexes. En revanche, les grands modèles voient souvent des percĂ©es mais nĂ©cessitent d'Ă©normes quantitĂ©s de donnĂ©es. Ici, nous acceptons une portĂ©e limitĂ©e : l'espoir est que mĂŞme de petites amĂ©liorations puissent guider la recherche. Mais nous ne devrions pas nous attendre Ă  ce que ces modèles remplacent l'apprentissage profond sur des donnĂ©es massives. Ils sont meilleurs pour essayer rapidement des idĂ©es Ă©videntes.

  • FiabilitĂ© de l'agent : L'agent (par exemple, GPT-4) pourrait halluciner ou dĂ©vier. Il est important que les rĂ©sultats soient reproductibles : après une exĂ©cution de l'agent, un humain devrait vĂ©rifier les modifications conservĂ©es et relancer l'entraĂ®nement pour confirmer la mĂ©trique. Garder l'agent honnĂŞte en incluant des dĂ©clarations dans program.md telles que « n'accepter que les amĂ©liorations rĂ©elles de la mĂ©trique d'Ă©valuation ».

Malgré ces défis, le principal garde-fou est la transparence et un suivi critique. Documentez tout. Lorsqu'un modèle montre un motif, vérifiez-le. Si de nombreux scientifiques citoyens observent la même anomalie (par exemple, tous les modèles à AUC élevée pour une tâche OCT mettent l'accent sur la région rétinienne nasale), cela renforce l'argument. L'objectif est d'accélérer la phase de génération d'idées, et non d'éviter une science rigoureuse par la suite.

Conclusion

Le glaucome est une maladie cécitante complexe et silencieuse avec de nombreux besoins de recherche non satisfaits – de la protection des neurones à la restauration de la vision. En même temps, l'IA a démocratisé l'expérimentation : une personne avec un GPU et une certaine détermination peut effectuer des recherches automatisées d'hyperparamètres qui prendraient des semaines aux équipes manuellement. Le cadre d'autorecherche de Karpathy confie essentiellement à chaque citoyen un assistant de laboratoire IA. En écrivant des objectifs de haut niveau clairs en Markdown, les chercheurs de la communauté peuvent laisser un agent traiter les produits et aller directement aux pistes prometteuses.

Nous avons décrit comment cela peut être fait en pratique : identifier les tâches de ML sur le glaucome, sélectionner les données (images du fond d'œil et OCT, champs visuels, ensembles de données moléculaires), définir les modèles et les métriques, et utiliser les instructions du programme pour guider la recherche. Nous avons esquissé une feuille de route communautaire de 90 jours et noté les liens avec les cliniciens pour garantir que les résultats précieux puissent éclairer la science réelle du glaucome. L'approche est très axée sur la « science citoyenne » : ouvrir les outils de découverte scientifique de manière accessible, tout en s'appuyant sur la supervision d'experts là où cela compte.

Citations : Nous avons référencé les ressources les plus récentes en matière de recherche sur le glaucome et d'IA. Les faits clés (prévalence de la maladie, moitié non diagnostiquée (physionet.org)), les thérapies prometteuses (implants de CNTF (pmc.ncbi.nlm.nih.gov), édition génique (pmc.ncbi.nlm.nih.gov)), et les pièges cachés (IA en imagerie (pmc.ncbi.nlm.nih.gov)) sont fondés sur la littérature actuelle. L'autorecherche elle-même est décrite dans la présentation de Karpathy (medium.com) et une revue (www.theneuron.ai). Celles-ci devraient conférer de la crédibilité à la vision exposée ici.

Au final, nous espérons que le lecteur se sentira autonome : si vous êtes un patient, un soignant ou un passionné, vous pourriez participer à l'avancement de la recherche sur le glaucome. Les outils et les données existent, les problèmes sont clairs, et avec une coordination et un agent IA, nous pouvons accélérer l'apprentissage. Comme pour toute recherche, le parcours comportera de faux départs, mais même les échecs nous apprennent quelque chose – orientant souvent l'esprit humain vers les bonnes approches. Les yeux grands ouverts sur les possibilités et les pièges, l'autorecherche menée par les citoyens pourrait devenir un complément puissant à la science traditionnelle du glaucome.

Commencez ici

La manière la plus simple de vous lancer dans l'autorecherche pour le glaucome aujourd'hui : Exécuter une petite classification sur les images du fond d'œil ORIGA.

  1. Obtenez les données : Téléchargez le jeu de données ORIGA-light (650 images du fond d'œil rétinien étiquetées normal vs glaucome) (pubmed.ncbi.nlm.nih.gov). Divisez-le en environ 80 % d'entraînement / 20 % de validation.
  2. Modèle initial : Utilisez ou adaptez le script d'exemple de [karpathy/autoresearch] pour la classification d'images. Par exemple, un peu de code pour charger les images ORIGA et entraîner un petit CNN (2-3 couches de convolution) pour distinguer le glaucome du sain.
  3. Écrivez program.md : Dans le texte, définissez l'objectif comme « maximiser l'AUC de validation pour la détection du glaucome », et instruisez l'agent qu'il peut ajuster la profondeur du modèle, le taux d'apprentissage, etc. Par exemple :

Objectif : Maximiser l'AUC sur le glaucome vs normal pour le jeu de données ORIGA.

L'agent doit essayer d'ajuster les tailles des couches de convolution, le nombre de filtres et le taux d'apprentissage. Chaque essai dure 5 minutes d'entraînement. Si l'AUC de validation s'améliore, conservez le changement. Répétez.

  1. Lancez la boucle : Lancez l'autorecherche (pointez-la vers vos prepare.py, train.py et program.md). Laissez-la tourner pendant plusieurs heures ou toute une nuit sur votre RTX 3060. Elle effectuera environ 100 expériences automatiquement.
  2. Vérifiez les résultats : Examinez la console ou le journal pour voir le meilleur AUC de validation atteint (devrait être >0,8 si tout se passe bien). Vous disposez maintenant d'un modèle et d'un script d'entraînement que l'agent IA a affinés.

Cette simple expérience de week-end vous donne déjà une expérience concrète de la construction d'un pipeline ML sans écrire de nouveau code à la main. Documentez ce que vous avez essayé et partagez votre program.md et vos résultats avec la communauté. Chaque petit succès (améliorations de l'AUC, changements intéressants dans le réseau) est un élément constitutif. Vous instruisez littéralement une IA à faire de la recherche sur le problème de glaucome de votre choix – et ce faisant, vous apprenez à la fois la science des données du glaucome et avez l'espoir de faire une différence dans la compréhension ou le traitement de la perte de vision.

Bonne chance ! Gardez les questions et les découvertes en open source, et rappelez-vous : il s'agit d'outils de recherche-jouets, pas de conseils médicaux. Vérifiez attentivement vos exécutions et profitez du processus de découverte.

**`

Prêt à vérifier votre vision ?

Commencez votre test de champ visuel gratuit en moins de 5 minutes.

Commencer le test

Vous avez aimé cette recherche ?

Abonnez-vous à notre newsletter pour recevoir les dernières informations sur les soins oculaires et la santé visuelle.

Cet article est fourni à titre informatif uniquement et ne constitue pas un avis médical. Consultez toujours un professionnel de santé qualifié pour le diagnostic et le traitement.
Les yeux grands ouverts : Comment le cadre d'*Autorecherche* de Karpathy pourrait démocratiser la recherche sur le glaucome — Un modèle pour la découverte pilotée par les patients et l'IA dans la restauration de la vision | Visual Field Test