INNPoland_avatar

ChatGPT zrujnował karierę prawnika. Przedstawił w sądzie fałszywe wyniki

Sebastian Luc-Lepianka

29 maja 2023, 18:01 · 3 minuty czytania
Prawnik skorzystał z ChatGPT, aby zebrać dane do sprawy, którą prowadził. Zbytnie zaufanie maszynie skończyło się dla niego katastrofą, ponieważ AI... zmyśliła odpowiedzi.


ChatGPT zrujnował karierę prawnika. Przedstawił w sądzie fałszywe wyniki

Sebastian Luc-Lepianka
29 maja 2023, 18:01 • 1 minuta czytania
Prawnik skorzystał z ChatGPT, aby zebrać dane do sprawy, którą prowadził. Zbytnie zaufanie maszynie skończyło się dla niego katastrofą, ponieważ AI... zmyśliła odpowiedzi.
Tekst ku przestrodze każdego, kto chce wyręczać się AI. Elnur/easyfotostock/Eastnews
Więcej ciekawych artykułów znajdziesz na stronie głównej

Prawnik Steven Schwartz pokazał w sądzie "dowody" stworzone przez ChatGPT. Próba ułatwienia sobie życia zakończyła się dla niego katastrofą. Sąd udowodnił, że sztuczna inteligencja pokazała całkowicie fałszywe dane. Kariera prawnika legła w gruzach.


Mała sprawa, wielki szum

Wpadka Schwartza nadała sprawie więcej szumu, niż jest warta. Proces miał dotyczyć skargi pasażera kolumbijskich linii lotniczych Avianca. Miał zostać uderzony wózkiem do serwowania potraw, prowadzonego przez stewardessę. Ze względu na małą wagę incydentu, linie złożyły wniosek o odwołanie sprawy.

Prawnikowi pozostało więc powołać się na listę podobnych przypadków i znaleźć dowody na to, że nie były one traktowane jako błahe. W ten sposób miałby w ręku argumenty pozwalające na odrzucenie wniosku o oddalenie sprawy.

Aby odnaleźć potrzebne informacje, postanowił skorzystać z ChatGPT. Steven zaufał na ślepo maszynie i otrzymane dane, z nazwiskami, datami i podsumowaniem, przedstawił w sądzie. Jak się szybko okazało, wszystkie były zmyślone przez AI.

Halucynacje

Ten problem nazywa się "halucynacją. Dochodzi do niego, kiedy bot zaczyna zmyślać informacje i generuje takie odpowiedzi, które jego zdaniem użytkownik chce zobaczyć. Kiedy opowiesz mu o historii czwórki znajomych, to czasem z rozpędu doda piątego, wymyślając mu pseudonim, rolę w grupie i tak dalej. Przy pracy z botem wystarczy zwrócić mu na to uwagę i zapytać o zmyślony obiekt. Korekta wymaga trochę pracy, ale jest możliwa. Schwartz takiego wysiłku się nie podjął.

Na czym polega funkcja generatywna AI? Osobiście lubię porównywać to, w dużym uproszczeniu, do tabelek arkuszy kalkulacyjnych. Jeśli wpiszesz im ciąg cyfr w kolejności, zaznaczysz i przeciągniesz, to wygenerują dalszy ciąg. ChatGPT robi to samo, tylko jest w stanie mnożyć szeroki zakres zagadnień, jeśli dostanie przykłady.

A jeśli tych brakuje, stworzy je od podstaw i chętnie wypełni luki, bazując na podobnych tematach. Gdyby prawnik postanowił go podpytać o więcej spraw, zapewne dostałby drugie tyle. Schwartz zapewne wprowadził za mało danych i źle sformułował pytanie, czyli prompt, dla bota.

ChatGPT – można polegać czy nie?

Konieczność weryfikacji danych i dzieł stworzonych przez AI dotyka świata, odkąd OpenAI wypuściło swoją rewolucyjną inteligencję w obieg. Coraz powszechniejszy robi się problem uczniów korzystających z AI, aby zdawać testy i pisać prace zaliczeniowe. Rośnie też odsetek ludzi, którzy traktują maszyny jako tanią alternatywę dla terapeutów. 

Opcje na wykrywanie twórczości AI są wciąż w powijakach. Sam Altman, twórca ChataGPT, na wystąpieniu w Warszawie określił tego typu technologię jako jeszcze "prymitywną". W aplikacjach do obsługi botów można znaleźć ostrzeżenia, aby nie ufać im całkowicie w tematach porad prawnych, lekarskich i finansowych.

Nieco lepiej zapowiada się sposób sprawdzania ich źródeł danych. Wraz z rozwojem technologii, giganci technologiczni oferują różne metody weryfikacji, podawanych przez ich boty, np. podgląd historii wyszukiwania i użytych stron internetowych.

Błąd prawnika pogrzebał jego trzydziestoletnią karierę. Czy to oznacza, że informacje podawane przez ChatGPT są niewiarygodne? Nie. Jak z każdą technologią, można się nauczyć go poprawnie obsługiwać i dostosować do swoich zawodowych potrzeb. Chodzenie na skróty i ślepa wiara w otrzymywane informacje może dużo kosztować.

AI może być użytecznym narzędziem dla prawników, ale jego skuteczność nadal pozostawia trochę do życzenia. Wystarczy chwilę poszukać na social media, by odnaleźć ludzi zajmujących się tematem, jak w poście powyżej. Jedno jest pewne, w obecnej chwili sztuczna inteligencja nie zastąpi całkowicie naszej własnej inteligencji. 

Ojciec ChatGPT tłumaczy technologię

W Warszawie w roli adwokata AI wystąpił Samuel Altman. O mojej relacji z jego wystąpienia możecie przeczytać na łamach INNPoland.

Czytaj także: https://innpoland.pl/194255,sam-altman-wystapil-w-warszawie-ojciec-chatgpt-mowil-o-bezpieczenstwie-ai

Rozmowa o sztucznej inteligencji na Uniwersytecie Warszawskim, zorganizowana przez Ideas NCBR, była częścią światowej trasy Samuela Altmana, prezesa OpenAI i jednego z ojców ChatGPT. Wystąpił u boku Wojciecha Zaremby i Szymona Sidora, polskich pracowników spółki. Spotkanie poprowadziła Sylwia Czubkowska, dziennikarka technologiczna.

Spotkanie trwało godzinę w formacie, w którym połowa była przeznaczona na przygotowane wcześniej pytania, a połowa na pytania od uczestników. Głównym tematem spotkania były plany firmy w kwestii bezpieczeństwa, z uwzględnieniem transparentności w celu udostępnienia nowej technologii dla całego świata.