Optimisation des résultats du calcul d’implant et intelligence artificielle

L. GAUTHIE – Espace Hélios, Layatz II, SAINT-JEAN-DE-LUZ. 

L’intelligence artificielle (IA) et le big data sont deux technologies en plein essor, dont la combinaison est en train de révolutionner toutes les prises de décision dans quelque domaine que ce soit. Le champ de l’ophtalmologie et en particulier du calcul d’implant commence à être affecté par ces évolutions technologiques, même si nous restons pour l’instant dans le cadre d’une intelligence artificielle faible, c’est-à-dire d’une IA non sensible se concentrant sur la résolution d’une tâche précise sans aucune notion de “conscience” et d’intelligence générale. La coexistence de compétences mathématiques et métier (ophtalmologique) nous a conduit à écrire cet article à 4 mains.

Le concept d’IA

Quel animal de la figure 1 n’est pas un mouton ? Question évidente, pas besoin d’être ophtalmologiste pour distinguer le cheval des 5 autres moutons ! Même un enfant y arrive en un clin d’œil. La question qui nous intéresse donc est : qu’est-ce qui nous permet, dans notre cerveau, de distinguer un mouton d’un cheval ?

Souvenez-vous, petits, vous aviez un livre d’images d’animaux ou, mieux encore, un memory avec des vignettes d’animaux et on vous faisait répéter : “ceci est une poule”, “voici une vache, un mouton, un cheval”, etc. Cette répétition permanente d’images fortement ressemblantes a permis à votre cerveau de construire une formule qui, en présence d’une image d’animal, vous en donne le nom. Souvenez-vous encore, vous aviez du mal à distinguer le mouton, la chèvre et la brebis, peut-être même avez-vous encore un peu de mal aujourd’hui. Cette formule n’est donc pas infaillible, elle est basée sur la répétition et l’apprentissage, les fondements de l’intelligence artificielle.

Essayons maintenant de répondre à une nouvelle question : quel animal de la figure 2 n’est pas un mouton européen ? Notre formule cérébrale est clairement en train de bugger. On essaie de trouver des similarités entre 5 images pour en éliminer la 6 e , on n’y arrive pas, on accuse par délit de sale gueule le D et on abandonne (la vraie réponse est le F). La raison pour laquelle nous n’arrivons pas à faire cette distinction est donc simplement le fait que nous n’y avons jamais été entraînés. Jamais personne dans notre enfance ne nous a offert le memory mouton écossais contre mouton néo-zélandais. Jamais personne ne nous a raconté l’histoire de Stiff le mouton sud-africain rendant visite à Joff son cousin irlandais. Nous ne savons donc pas faire la distinction.

L’intelligence artificielle consiste à programmer un ordinateur ou un grand nombre d’ordinateurs pour qu’ils construisent une formule leur permettant de distinguer quelque chose à partir de données d’apprentissage. Essayons d’expliquer de la manière la plus simple possible comment cela fonctionne.

1. On préétablit une liste de features possibles pour la chose que nous essayons de reconnaître, dans le cas d’un animal par exemple : nombre de pattes, couleur, nombre d’oreilles, forme des oreilles, taille, forme des poils…

2. On montre à ces fameux ordinateurs des milliers et des milliers d’images en leur disant “ceci est un mouton”, “ceci est un cheval”…

3. Les ordinateurs construisent une formule la plus simple possible pour distinguer les animaux. Cette formule est souvent un arbre de décision (si grand, si avec une crinière, si musclé alors cheval ; si… alors mouton) mais peut aussi être une formule plus complexe comme une régression linéaire (tous ceux qui sont à gauche de la ligne sont des moutons, les autres sont des chevaux), une régression polynomiale, voire même des formules qui ne sont ni explicites ni explicables mais très efficaces comme des réseaux de neurones.

4. Nous vérifions la validité de la formule sur des nouvelles données et ré-entraînons les ordinateurs (on dit qu’on entraîne le modèle) de manière récurrente.

5. On affine la formule en fonction des résultats qu’on veut voir (réduction des faux positifs, réductions des faux négatifs).

Une fois qu’on comprend comment un algorithme d’intelligence artificielle fonctionne, on comprend aussi que la qualité et la quantité des données à notre disposition nous permet de mieux distinguer les choses. Imaginez une minute que nous n’avions que des photos de chevaux noirs et de moutons blancs : la machine, cherchant le plus simple modèle, vous dirait qu’un cheval blanc est un mouton.

La bonne nouvelle est que l’avènement du big data a redonné à l’intelligence artificielle ses lettres de noblesse. Pendant longtemps, nous n’étions capables que de distinguer des chevaux des moutons, pas très intéressant vous me direz. Maintenant, nous sommes capables de gérer des millions voire des milliards et des milliards de données qui nous permettent de distinguer très finement des objets très ressemblants. Les champs d’application sont infinis, reconnaître un mouton n’étant pas évidemment le plus intéressant, mais on peut citer : reconnaître un véhicule qui freine devant nous, reconnaître une cellule cancéreuse, reconnaître un futur client, reconnaître un client mécontent, reconnaître une machine qui va tomber en panne, reconnaître un patient sain, reconnaître une œuvre musicale, reconnaître vos goûts culinaires et j’en passe des centaines. On peut même distinguer un patient qui a besoin d’une lentille de 0,75 dioptries d’un patient qui a besoin d’une lentille de 0,5 D.

Enfin, on y vient. Notre approche, comme vous commencez à l’imaginer maintenant, a été de combiner des formules purement optiques avec des algorithmes d’intelligence artificielle afin de créer un calcul plus performant, plus conforme à la réalité et, surtout, qui apprend en emmagasinant des données supplémentaires. Nous avons ajouté des informations importantes (sexe, résultats de l’opération du premier œil, âge du patient) et nous avons ainsi pu améliorer nettement la véracité du calcul d’implant.

Le calcul d’implant lors de la chirurgie de la cataracte

Depuis longtemps, ce calcul est basé sur des formules théoriques modélisant un œil humain et calculant le trajet des rayons lumineux au sein de cet œil.

1. Les formules de régression ont été établies de manière rétrospective et statistique à partir des éléments biométriques

La formule SRK, développée par Sanders, Retzlaff et Kraft, ne prenait en compte, pour le calcul de la puissance de l’implant, que la longueur axiale et la kératométrie. Cette formule était P = A – 2,5 L – 0,9 K. La constante A, le plus souvent située entre 117,5 et 120, était censée représenter l’impact de la position de l’implant dans l’œil : plus cet implant était postérieur, plus la constante de l’implant devait être importante. Cette formule simple pouvant être calculée à la main a été utilisée pendant la première décennie de l’implantation intraoculaire, mais s’est montrée imprécise dès que l’on s’éloignait d’une certaine norme d’œil.

2. Les formules théoriques

Elles utilisent un modèle d’œil simplifié. Elles diffèrent essentiellement par les moyens utilisés pour extrapoler l’ELP

(effective lens position) [1]. Les formules théoriques de première génération reposant sur les formules de vergence n’utilisaient que la valeur de longueur axiale pour prédire la profondeur de chambre antérieure, c’était par exemple le cas des formules de Hoffer et Binkhorst.

Parmi les formules théoriques de troisième génération, le chef de file est la formule SRKT qui utilise, dans le cadre d’une formule très sophistiquée, le couple kératométrie et longueur axiale pour prédire la position de l’implant. Cette formule est intégralement publiée mais ne peut se résumer à une équation simple et nécessite un logiciel pour la mettre en œuvre (fig. 3). Il s’agit toujours aujourd’hui de l’une des formules leader en raison de la transparence des calculs effectués et de la bonne reproductibilité de ses résultats.

La formule de Hoffer Q intègre un mode de prédiction différent de l’ELP et serait adaptée selon la plupart des auteurs pour des globes oculaires courts.

La formule de Haigis [2] introduit un paramètre supplémentaire pour estimer l’ELP : c’est la profondeur de chambre antérieure mesurée, laquelle n’est pas extrapolée mais bien mesurée.

La formule de Olsen intègre un quatrième paramètre, l’épaisseur du cristallin, et ce en présupposant que l’implant vienne se positionner au niveau de l’équateur du cristallin. Seuls les biomètres optiques de dernière génération sont capables de mesurer cette épaisseur. Plus récemment, la formule de Barett utilise également ce paramètre.

De nouveaux paramètres biométriques viennent compléter les éléments pris en compte, à savoir le blanc à blanc (WTW) et la mesure de la face postérieure de la cornée (TK ou total keratometry). Cette dernière est actuellement mesurée par l’IOL Master 700 qui combine une mesure conventionnelle de la courbure de la face antérieure de la cornée, par un processus optique de réflexion de points sur le film lacrymal, et une carte pachymétrique de la cornée, réalisée par un OCT la courbure de la face postérieure, cette dernière étant reconstruite à partir de ces deux données (fig. 4).

Cette TK a potentiellement plusieurs avantages :

– la prise en compte de la face postérieure de la cornée dans le calcul de l’astigmatisme cornéen total, non pas par extrapolation mathématique plus ou moins transparente mais par une mesure directe ;

– l’absence d’extrapolation du parallélisme entre la face antérieure et postérieure de la cornée, qui est complètement fausse post-chirurgie réfractive cornéenne et qui modifie la face antérieure sans modifier la postérieure.

La validité de cette TK devra cependant être vérifiée car les autres mesures de la face postérieure réalisées avec des Scheimpflug n’ont pas permis d’améliorer le résultat du calcul des implants toriques versus des formules d’extrapolation à partir de la face antérieure.

Le problème de ces calculateurs est qu’ils appliquent une règle de calcul vectoriel non transparente dont on ne peut valider le bien fondé. Nous sommes typiquement en face du principe de la boîte noire qui a tendance à se répandre dans le domaine des calculs biométriques.

La mesure directe de la face postérieure de la cornée, que ce soit par des moyens tomographiques ou basés sur l’OCT, pourrait logiquement être intégrée à ces calculs et remplacer avantageusement les extrapolations. Les études rétrospectives valident la supériorité de l’extrapolation par rapport à la mesure directe objectivant probablement l’imprécision de la mesure de la face postérieure (fig. 6).

3. L’intelligence artificielle

L’IA et les raffinements statistiques liés au big data vont très rapidement venir bousculer ces classifications et formules établies depuis de nombreuses années. En effet, les retours d’expérience en utilisant ces formules vont permettre d’améliorer leurs résultats par des biais purement statistiques.

On pourrait d’ores et déjà envisager des formules sans formules, uniquement statistiques, qui prédiraient le résultat, non pas en fonction de paramètres dont on comprendra le rôle théorique, mais qui anticiperaient ce dernier à partir d’algorithmes purement probabilistes permettant de le comparer à de très nombreux cas dont on connaît les données biométriques et préopératoires et dont on connaît le résultat réfractif. On peut aussi envisager des formules hybrides permettant d’optimiser le résultat de formules théoriques en fonction de résultats statistiques, ce sont des formules dopées à l’intelligence artificielle.

Déjà, des industriels permettent de calculer sur leur site les implants qu’ils commercialisent, et ce sans donner accès aux bases théoriques des formules qu’ils utilisent. Les résultats réfractifs souvent excellents qui sont obtenus après la pose de ces implants sont-ils dus à la performance intrinsèque de ces lentilles ou plutôt à la pertinence du calcul théorique ? Cette question reste entière mais peut très rapidement venir créer le doute sur la nature du produit réellement distribué : est-ce le dispositif implantable ou le calcul théorique ?

On peut d’ailleurs penser que nous nous dirigeons vers l’utilisation d’algorithmes évolutifs en permanence et de manière quasi autonomes, à l’image des algorithmes de Google changeant quasiment tous les jours de l’année. On pourrait d’ailleurs se retrouver face à la difficulté de gestion d’algorithmes mise à jour automatiquement sans intervention humaine, avec à la fois un risque de dérapage par la non-prise en compte d’un élément aberrant, mais aussi les difficultés réglementaires face à un algorithme n’ayant pas été validé cliniquement puisque changeant en permanence.

La fiabilité des données recueillies est fondamentale pour construire ces algorithmes, l’échelle du phénomène mesuré étant petit, et un bruit trop important venant d’un recueil des données imprécis pourrait impacter de manière significative le résultat de ces calculs. Il existe un adage général d’IA qui dit qu’il vaut mieux un mauvais d’algorithme avec une base de données très importante qu’un bon algorithme avec une base de données plus faible. Cela reste à démontrer dans notre spécialité, tout en sachant qu’il existera probablement un effet seuil au-delà duquel la masse de données sera tellement importante qu’elle pourra rectifier par elle-même les imprécisions d’entrée.

En pratique, on recommande aujourd’hui d’utiliser systématiquement des quadri-formules : pour une biométrie donnée, le résultat des quatre formules principales (par exemple SRKT, Haigis, Hoffer Q et Barrett) est affiché (fig. 5). Sur des yeux standards, la différence de résultats est en général très faible mais, en dehors de ces valeurs habituelles, une comparaison du résultat des différentes formules peut être intéressante, le praticien pouvant pondérer l’une par rapport à l’autre. Classiquement, on recommandait d’utiliser plutôt une formule que l’autre sur des biométries particulières (la Hoffer Q par exemple sur des yeux courts). Le but des formules développées à partir de l’intelligence artificielle sera justement d’éviter à avoir à faire cela, les insuffisances des formules développées à partir de base optique étant rectifiées de manière permanente par les algorithmes statistiques.

Dans tous les cas, la constante de l’implant devra être secondairement optimisée. Cette procédure consiste à introduire dans le logiciel du biomètre les résultats réfractifs quelques semaines après la pose. Ce dernier va alors recalculer la constante afin que la moyenne des résultats obtenus soit emmétropisante. Cette procédure, parfois présentée comme l’introduction d’une constante personnalisée, pourrait au contraire représenter une manière d’étalonner son biomètre a posteriori. Cette possibilité ancienne, incluse déjà depuis longtemps dans nos biomètres, est insuffisamment utilisée en routine car nécessite d’apporter de manière rétroactive l’information du résultat réfractif au biomètre, ce qui est rarement fait. Une intégration des logiciels de consultation aux systèmes de calculs améliorera considérablement cette optimisation, au prix de la dépendance toujours plus grande à un système non maîtrisé par le praticien.

En attendant d’utiliser une constante personnelle optimisée et en l’absence de confiance en la constante fournie par le laboratoire, on pourra utiliser une constante issue de la consultation du site ULIB où divers utilisateurs publient leur propre constante, ce site n’étant plus évolutif actuellement.

4. Les formules après chirurgie réfractive cornéenne

Tout le monde le sait, les résultats post-chirurgie réfractive cornéenne sont très mauvais si on n’utilise pas des formules particulières. Diverses raisons concourent à ces erreurs réfractives : la mauvaise appréciation de la puissance cornéenne centrale, en général mesurée sur un cercle entre 2,2 et 3,2 mm du centre sous-estimant ainsi, la plupart du temps, la variation kératométrique induite par la chirurgie cornéenne [3]. L’extrapolation, à partir de la kératométrie et de la profondeur de chambre antérieure, est prise en défaut. En effet, cette dernière est basée sur le principe de la flèche cornéenne, laquelle présuppose qu’une cornée plus plate est associée à une profondeur de chambre antérieure plus faible. Après chirurgie réfractive myopique, la kératométrie est abaissée sans que cette flèche cornéenne ne soit modifiée. La longueur de l’œil est modifiée et en particulier la distance cornée/implant, en raison de l’amincissement de la cornée en cas de chirurgie myopique. Cet élément intervient également dans les calculs.

En pratique, si l’on veut utiliser la SRKT, il faudra utiliser la formule double K d’Aramberri [4] qui utilise la kératométrie antérieure à l’intervention cornéenne pour prédire la position de l’implant et la kératométrie postopératoire pour le calcul de vergence. Il convient à tout prix, dans ces cas-là, de proscrire l’utilisation de la SRKT conventionnelle.

La Haigis L [5] est une formule dérivée de la formule de Haigis conventionnelle, dans laquelle la puissance cornéenne centrale est extrapolée à partir d’une base de données de 40 yeux ayant bénéficié d’une chirurgie myopique et/ou l’affinement cornéen est “forfaitisé” sur une base de 120 microns. La profondeur de chambre antérieure, n’étant plus extrapolée mais mesurée, n’est pas impactée par le changement kératométrique.

De nombreuses autres formules moins diffusées existent (Ladas-Stark, Feiz-Mannis, Latkany, Shammas, etc.) et sont disponibles en général sur le site des sociétés savantes [6].

Là aussi, l’irruption du big data va, à très court terme, bouleverser nos habitudes avec la difficulté spécifique de la plus grande rareté des données de patients déjà opérés de chirurgie réfractive mais aussi de la variabilité de procédures réfractives induisant une dispersion mal contrôlée de l’input dans les algorithmes.

5. Les formules de calcul du cylindre de l’implant

Initialement, le calcul du tore de l’implant se résumait à la projection de l’astigmatisme antérieur cornéen à la surface de l’implant intraoculaire, rectifié d’un éventuel astigmatisme chirurgicalement induit (calculateurs en ligne des laboratoires). Les résultats des implants toriques ont certes montré une amélioration considérable des résultats réfractifs cylindriques par rapport aux implants sphériques associés ou non à des incisions cornéennes relaxantes, mais ils ont révélé une certaine irrégularité des résultats qui nous ont conduit à nous interroger sur l’origine de ces derniers. Les résultats statistiques ont montré une sur-correction de la compensation des astigmatismes conformes et une sous-correction des astigmatismes inverses. Cela a remis en évidence l’existence d’un astigmatisme cornéen antérieur conforme physiologique venant compenser un astigmatisme interne inverse.

Le nomogramme de Baylor intègre, pour des astigmatismes inverses et conformes, cet astigmatisme interne, mais seuls les calculateurs intégrant un calcul vectoriel permettent théoriquement de calculer ces astigmatismes sur des axes obliques (fig. 6). Il s’agit déjà d’une rectification statistique très simple mais basée non pas sur des paramètres mesurés intégrés dans une formule théorique, mais sur une approche probabiliste.

Le plus populaire de ces calculateurs est le calculateur de Barrett (fig. 7). C’est ainsi que les calculateurs en ligne offrent dorénavant aux médecins la possibilité de calculer le cylindre de leur implant intraoculaire en prenant en compte ou non un astigmatisme interne extrapolé. Ces formules peuvent même proposer la pose d’un implant torique sur un œil ne présentant aucun astigmatisme cornéen antérieur. Le problème de ces calculateurs est qu’ils appliquent une règle de calcul vectoriel encore une fois non transparente, dont on ne peut valider le bien-fondé. Nous sommes typiquement en face du principe de la boîte noire qui a tendance à se répandre dans le domaine des calculs biométriques.

La mesure directe de la face postérieure de la cornée, que ce soit par des moyens tomographiques ou basés sur l’OCT, pourrait logiquement être intégrée à ces calculs et remplacer avantageusement les extrapolations. L’IOL Master 700 (Zeiss) permet de mesurer, par le biais de la TK, cette face postérieure et donc la valeur réfractive totale de la cornée en calculant sa puissance postérieure, en corrigeant la puissance antérieure de l’impact de la carte pachymétrique mesurée à l’OCT swept Source, et ce de manière plus performante que les Scheimpflug.

Les études rétrospectives validaient jusque-là la supériorité de l’extrapolation par rapport à la mesure directe, objectivant probablement l’imprécision de la mesure de la face postérieure (fig. 8). Là aussi, l’irruption du big data viendra perturber des habitudes en augmentant notre dépendance à des systèmes plus ou moins opaques.

Fig. 8 : Face postérieure mesurée directement par le topographe d’élévation.

Conclusion

Le calcul d’implant est aujourd’hui un challenge plus difficile à relever que le simple recueil de données biométriques, lequel est de mieux en mieux assuré par des appareillages toujours plus divers et plus reproductibles. Les erreurs de prédictions sont de moins en moins le fait de mesures biométriques erronées mais plutôt celui de lacunes dans les formules de calcul [7]. La dimension statistique fait irruption dans un champ précédemment occupé par des raisonnements purement optiques. En cela, elle s’intègre dans une évolution tout juste débutante associant richesse des bases de données, big data et intelligence artificielle.

Pour bénéficier de ces nouvelles potentialités, le praticien sera incité à rejoindre un système d’information dont il contribuera lui-même à constituer la richesse, une dépendance à ces systèmes et à leurs algorithmes devenant alors probable avec un déplacement de la valeur ajoutée que pouvait constituer son expertise dans le sujet traité. La construction d’écosystèmes complets s’autoalimentant des datas recueillies sera sans aucun doute le challenge de demain.

L. GAUTHIER – Supplément à Réalités Ophtalmologiques n° 271 • Avril 2020 • Saison 12

Pour en savoir plus :

1. Holladay JT, Musgrove KH, Prager TC et al. A three-part system for refining intraocular lens power calculation. J Cataract Refract Surg, 1988;14:17-24.

2. Haigis W. The Haigis formula. In: Shammas HJ (ed). Intraocular Lens Power Calculations. Thorefare, NJ, Slack, 2004;41-57.

3. Holladay JT. Cataract surgery in patients with previous keratorefractive surgery (RK, PRK, and LASIK). Ophthalmic Practice, 1997;15:238-244.

4. araMberri J. Intraocular lens power calculation after corneal refractive surgery: double K method. J Cataract Refract Surg, 2003;29:2063-2068.

5. Haigis W. Intraocular lens calculation after refractive surgery for myopia.

J Cataract Refract Surg, 2008;34:1658-1663.

6. sHaMMas HJ, sHaMMas MC. No-history method of intraocular lens power calculation for cataract surgery after myopic laser in situ keratomileusis. J Cataract Refract Surg, 2007;33:31-36.

7. olsen T. Sources of error in intraocular lens power calculation. J Cataract Refract Surg, 1992;18:125-129.