Kiedy Chong Ke, prawniczka z Vancouver, postanowiła wykorzystać w sądzie przykłady incydentów wygenerowane przez ChatGPT, nie spodziewała się, że przyniesie jej to więcej szkody niż pożytku.
Adwokatka reprezentująca milionera w trudnej sprawie rozwodowej chciała wykorzystać te "przypadki" do uzyskania zgody na wyjazd dzieci klienta do Chin. Jednakże, jak się okazało, przypadki te nigdy nie miały miejsca – były tzw. halucynacjami AI.
Prawniczka "stanęła" przed sądem
Sędzia Najwyższego Sądu Kolumbii Brytyjskiej, David Masuhara, który rozpatrywał sprawę, nie tylko upomniał Ke, ale również zobowiązał ją do pokrycia kosztów poniesionych przez adwokatów byłej żony jej klienta, spędzonych na odkrywanie, że cytowane przypadki były nieistniejące.
Te przypadki są dla mnie bardzo kontrowersyjne, jako że zostały odkryte jako nieistniejące – napisał Masuhara.
Masuhara podkreślił, że nie uważa, aby Ke zamierzała celowo wprowadzić sąd w błąd. Jednak wyraził zaniepokojenie, stwierdzając, że "generatywna SI wciąż nie może zastąpić fachowej wiedzy wymaganej od prawników w systemie sprawiedliwości".
Prawniczka przeprasza sąd
Chong Ke złożyła przeprosiny i przyznała, że nie miała zamiaru wprowadzać sądu w błąd. Sędzia, choć zaniepokojony sytuacją, uznał jej przeprosiny za szczere i zdecydował, że Ke powinna jedynie pokryć koszty związane z wyjaśnieniem zamieszania spowodowanego fikcyjnymi przypadkami.
Incydent ten wydaje się być jednym z pierwszych znanych przypadków, w których precedens wygenerowany przez ChatGPT znalazł się w kanadyjskim sądzie. Spowodowało to, że Kolegium Prawników Kolumbii Brytyjskiej ostrzegło przed "rosnącym poziomem materiałów generowanych przez SI wykorzystywanych w postępowaniach sądowych".