Menu

Filter op
content
PONT Omgeving

ChatGPT in de Rechtszaal: een incident of de toekomst?

De zaak vindt, bij hoge uitzondering voor ons, in het civiel recht plaats. De kern van de zaak was het rendementsverlies van de zonnepanelen van buurman 1 door een dakopbouw van buurman 2. Buurman 1 eiste een compensatie voor het verminderde rendement van zijn zonnepanelen. Tot zover geen opzienbarende zaak. Dit veranderde echter toen de kantonrechter besloot ChatGPT te raadplegen voor de inschatting van het verminderende rendement. Ja, je leest het goed, ChatGPT wordt tegenwoordig ook gebruikt door rechters!

Ruimtemeesters 16 augustus 2024

Jurisprudentie – Samenvattingen

ChatGPT: een digitale schade calculator?

De kantonrechter baseerde zich mede, maar zonder een andere bron te noemen, op ChatGPT voor het inschatten van de levensduur van zonnepanelen uit 2009, en voor de huidige gemiddelde kWh-prijs. Met deze gegevens werd vervolgens het rendementsverlies berekend. Dit verlies komt uit op 2.250,20 euro, dit terwijl buurman 1 het rendementsverlies van zijn zonnepanelen had berekend op 13.963,20 euro. Het gebruik van ChatGPT in een vonnis zet de deur open voor vragen over de betrouwbaarheid en de juridische waarde van informatie die volgt uit een AI-tool als ChatGPT.

Hoe werkt ChatGPT?

Om te bepalen of het gebruik van ChatGPT in gerechtelijke procedures een wenselijke ontwikkeling is, is het belangrijk om te weten hoe het werkt. Kort door de bocht komt het op het volgende neer: ChatGPT heeft heel veel teksten ‘geanalyseerd’, hierdoor kent de AI patronen en structuren. Op het moment dat er iets wordt gevraagd aan ChatGPT, gebruikt de AI de kennis van deze patronen en structuren om te voorspellen welke combinatie van woorden het meest ‘logische’ antwoord op leveren. Dit betekent dat ChatGPT inhoudelijk niet weet wat het zegt, maar antwoorden formuleert op basis van woorden en tekens die vaak na elkaar staan.

Incident of de toekomst?

In mijn optiek is het gebruik van ChatGPT op deze manier in gerechtelijke procedures niet wenselijk en blijft het bij een incident. Allereerst omdat we niet weten met welke gegevens de AI is getraind. Hierdoor is de onderliggende bron is niet duidelijk en is de informatie verkregen uit ChatGPT zeer lastig controleerbaar. Daarnaast baseert ChatGPT de antwoorden op de, wiskundig gezien, meest logische combinatie van woorden. Niet op inhoudelijk correcte kennis. Dat dit fout kan gaan heeft de praktijk al uitgewezen. Zo vroeg de Amerikaanse advocaat Steven Schwartz in 2023 ChatGPT om uitspraken over letsel in een vliegtuig door serveerwagens. ChatGPT antwoordde netjes met een hele lijst aan soort gelijke rechtszaken. Er was echter een probleem, deze rechtszaken hadden nooit bestaan!

Artikel delen