Advocaten hebben nepzaken aangehaald die zijn gegenereerd door kunstmatige inlichtingen in gerechtelijke procedures in Engeland, heeft een rechter gezegd – waarschuwend dat advocaten kunnen worden vervolgd als ze de nauwkeurigheid van hun onderzoek niet controleren.
Hooggerechtshof Victoria Sharp zei dat het misbruik van AI “ernstige implicaties heeft voor de regeringsadministratie en het vertrouwen van het publiek in het rechtssysteem.”
In het laatste voorbeeld van hoe gerechtelijke systemen over de hele wereld worstelen met hoe om te gaan met de toenemende aanwezigheid van kunstmatige intelligentie in de rechtbank, bestraften scherpe en collega -rechter Jeremy Johnson advocaten in twee recente zaken in een uitspraak op vrijdag.
Ze werden gevraagd om te regeren nadat rechters van de lagere rechtbank hun bezorgdheid geuit over ‘vermoedelijk gebruik door advocaten van generatieve kunstmatige inlichtingeninstrumenten om schriftelijke juridische argumenten of getuigenverklaringen te produceren die niet worden gecontroleerd’, wat leidt tot valse informatie die voor de rechtbank werd geplaatst.
In een uitspraak geschreven door Sharp, zeiden de rechters dat in een rechtszaak van USD $ 120 miljoen over een vermeende inbreuk op een financieringsovereenkomst waarbij de Qatar National Bank betrokken was, een advocaat 18 zaken noemde die niet bestonden.

Krijg nationaal nieuws
Meld u aan voor het breken van nieuwswaarschuwingen voor nieuws dat van Canada en over de hele wereld van invloed is op het breken van nieuwswaarschuwingen als ze zich voordoen.
De cliënt in de zaak, Hamad al-Haroun, verontschuldigde zich voor het onbedoeld misleiden van de rechtbank met valse informatie geproduceerd door openbaar beschikbare AI-tools en zei dat hij verantwoordelijk was, in plaats van zijn advocaat Abid Hussain.
Maar Sharp zei dat het “buitengewoon was dat de advocaat op de cliënt vertrouwde voor de nauwkeurigheid van hun juridisch onderzoek, in plaats van andersom.”
Bij het andere incident noemde een advocaat vijf nepzaken in de woningclaim van een huurder tegen de London Borough of Haringey. Barrister Sarah Forey ontkende het gebruik van AI, maar Sharp zei dat ze “niet aan de rechtbank een coherente verklaring had gegeven voor wat er gebeurde.”
De rechters verwezen de advocaten in beide gevallen naar hun professionele toezichthouders, maar namen geen serieuzere actie.
Sharp zei dat het verstrekken van vals materiaal alsof het echt zou kunnen worden beschouwd als minachting van de rechtbank of, in de “meest grove zaken”, het versterken van de rechtvaardiging, die een maximale levenslange gevangenisstraf heeft.
Ze zei in het oordeel dat AI een “krachtige technologie” is en een “nuttig hulpmiddel” voor de wet.
“Kunstmatige intelligentie is een hulpmiddel dat zowel risico’s als kansen met zich meebrengt,” zei de rechter.
“Het gebruik ervan moet daarom plaatsvinden met een passende mate van toezicht, en binnen een regelgevingskader dat zorgt voor naleving van gevestigde professionele en ethische normen als het vertrouwen van het publiek in de rechtbank moet worden gehandhaafd.”
& kopieer 2025 The Canadian Press