Hallucination-free? Assessing the Reliability of Leading AI Legal Research Tools


Photo/image : Laboratoire de Cyberjustice

En dépit de l’engouement suscité par cette nouvelle technologie et la publicité faite par les entreprises qui en font la promotion, la présente recherche indique que les outils tels que Lexis+AI, Ask Practical Law AI, AI-Assisted Research et GPT-4 produisent encore des résultats tronqués pouvant aller jusqu’ à 43 pourcents d’hallucination.

Les modèles de langage (LLM) sont des IA avancées qui comprennent et génèrent du langage naturel. Entraînés sur des ensembles donnés textuelles, ils répondent à des questions, rédigent des textes, traduisent et simulent des conversations. Toutefois, les LLM peuvent halluciner, ils peuvent fournir des informations incorrectes, fausses ou semi-correctes. Pour cela, des systèmes plus avancés existent pour lutter contre l’hallucination, comme les systèmes de Retrieval-Augmented-Generation (RAG).


Lire l'article complet sur Laboratoire de Cyberjustice »