Elon Musk ostrzega przed sztuczną inteligencją. Wskazał, czego należy się bać
- Elon Musk jest współzałożycielem firmy OpenAI
- Wynalazła ona ChatGPT, czyli chatbota generującego odpowiedzi na zadane mu pytania
- Według Muska sztuczna inteligencja jest największym zagożeniem dla cywilizacji
Musk ostrzega przed ChatGPT
15 lutego 2023 r. Elon Musk wziął udział w dubajskim World Government Summit: Światowym Szczycie Rządu, który skupia liderów polityki, gospodarki, technologii itp. Miliarder jest również współzałożycielem firmy technologicznej OpenAI. W środę został zapytany o jej produkt, jakim jest ChatGPT.
"Jednym z największych zagrożeń dla przyszłości cywilizacji jest AI [sztuczna inteligencja – przyp. red.]" – powiedział Musk, cytowany przez amerykański portal CNBC. Dlaczego produkt OpenAI miałby być dla nas niebezpieczny?
Problem z ChatGPT
Zdaniem miliardera ChatGPT bardzo wyraźnie pokazał, jak niezwykle zaawansowana stała się do tej pory sztuczna inteligencja. Zwłaszcza odkąd wyposażono ją w interfejs użytkownika, który jest dostępny dla większości ludzi.
Problem tkwi w tym, że odnośnie do AI nie powstały jeszcze żadne zasady ani przepisy, które utrzymywałyby jej rozwój pod kontrolą. Samoloty czy samochody są objęte normami bezpieczeństwa i zdaniem Muska powinny one istnieć również wobec sztucznej inteligencji.
CNBC podkreśliło, że miliarder już od długiego czasu ostrzega przed niebezpieczeństwami, jakie wynikają z niczym nieograniczonego rozwoju AI. Tymczasem ma ono być "znacznie bardziej niebezpieczne niż głowice nuklearne".
Czytaj także: Sztuczna inteligencja w roli prawnika. ChatGPT wynegocjował zniżkę na internet
ChatGPT jako lekarz
W innym artykule w INNPoland pisaliśmy o tym, jak medyczny start-up AnsibleHealth sprawdzał ChatGPT pod kątem wiedzy medycznej. Miał zdać USMLE, czyli trzy egzaminy potrzebne do uzyskania licencji medycznej w Stanach Zjednoczonych. Produkt OpenAI otrzymał 350 pytań medycznych pochodzących z USMLE z 2022 r.
Poprawnie odpowiedział na między 52,4 proc. a 75,0 proc. Tymczasem aby zostać lekarzem, potrzebne jest 60 poc. Nie oznacza to jednak, że sprawdziłby się jako "samodzielny" doktor.
"ChatGPT ani nie "rozumuje", ani nie "myśli". Po prostu dostarcza tekst oparty na ogromnym i bardzo wyrafinowanym modelu prawdopodobieństwa" – poinformował prof. Alfonso Valencia z Narodowego Centrum Superkomputerowego w Barcelonie. Valencia został zacytowany przez portal sciencemediacentre.org. Nie oznacza to jednak, że ChatGPT nie będzie pomocny w świecie medycyny. O jego zaletach w rozmowie z Science Media Centre powiedziała Lucía Ortiz de Zárate, doktorantka z dziedziny etyki i zarządzania sztuczną inteligencją z Uniwersytetu Autonomicznego w Madrycie.
Ten rodzaj badań pokazuje z jednej strony potencjał sztucznej inteligencji do zastosowań medycznych, a z drugiej potrzebę ponownego przemyślenia metod oceny wiedzy. W praktyce medycznej technologie AI mogą być bardzo istotną pomocą dla lekarzy przy stawianiu diagnoz, przepisywaniu terapii, leków itp. Te zmiany zmuszają nas do ponownego przemyślenia relacji między AI, lekarzami i pacjentami.Czytaj także: https://innpoland.pl/190796,blad-chatbota-google-bard-przez-rywala-chatgpt-google-stracilo-miliardy