Plus précisément, le juge a demandé à ChatGPT si l'assurance d'un enfant autiste était contrainte de couvrir les coûts de son traitement médical. Il a tout d'abord posé la question directement, puis affiné ses recherches en interrogeant le chatbot sur d'éventuels précédents favorables.

Les réponses de l'algorithme se sont avérées suffisamment précises et détaillées pour permettre au juge de statuer, bien que ce dernier insiste sur le fait que l'IA n'a en aucun cas pris la décision à sa place. Elle a constitué un outil supplétif et, dans ce cas précis, s'est révélée très efficace.

Toutefois, recourir à de tels systèmes pose d'une part la question de la perte de compétence (en l'occurrence le travail de prospection) et d'autre part, la question de la confiance accordée au résultat fourni par l'algorithme -donc à l'algorithme lui-même. À ce sujet, il faut souligner que des professeurs de l'Université du Minnesota avaient fait passer en janvier un examen de droit à ChatGPT. Selon eux, il en avait résulté que le chatbot avait obtenu un résultat « assez médiocre », néanmoins suffisant pour valider un diplôme.

Par ailleurs, en matière de justice, le recours à un système d'intelligence artificielle souffre d'un précédent particulièrement peu flatteur : en 2016, il a été démontré qu'un logiciel servant d'auxiliaire à l'administration pénitentiaire de plusieurs États américains présentait des biais racistes. Interrogé quant au risque de récidive de certains détenus et leur éventuelle remise en liberté, l'algorithme avait une nette tendance à considérer à tort les prisonniers afro-américains comme « à risque », quand les prisonniers blancs bénéficiaient d'un traitement plus clément.

Enfin, l'utilisation d'un système d'intelligence artificielle dans le domaine juridique pose la question de la fraicheur des informations dont ce dernier va disposer lorsqu'il effectuera ses recherches. Et en l'occurrence, même des sites gouvernementaux mettent parfois beaucoup de temps à actualiser les textes disponibles en ligne. Dès lors, le risque de biais n'est plus à considérer en amont de l'instruction du logiciel, mais bien en aval, au cours de son renforcement.

Comme toujours en matière d'IA, il est donc fondamental d'interroger la qualité des jeux de données ayant servi à l'instruction, la qualité du produit fini et la fiabilité des résultats fournis -le juge affirme d'ailleurs ne pas s'en être tenu aux strictes affirmations du chatbot et les avoir entièrement vérifiées.

Quoi qu'il en soit, un nouveau pas vient d'être franchi et cet exemple illustre parfaitement l'évolution des prédictions sur la manière dont l'intelligence artificielle va transformer le travail, tant dans son contenu que dans sa forme. Longtemps, certains analystes envisageaient une possible disparition de la notion même de travail ; désormais, il devient évident que celui-ci va évoluer et que l'IA servira d'auxiliaire.

Pour le meilleur ou pour le pire.