Elon Musk znów zadziwia, tym razem jednak nie chodzi o Twittera. W Dubaju ostrzegał nas przed nowym zagrożeniem, jakim może być między innymi... jego własny produkt.
Reklama.
Reklama.
Elon Musk jest współzałożycielem firmy OpenAI
Wynalazła ona ChatGPT, czyli chatbota generującego odpowiedzi na zadane mu pytania
Według Muska sztuczna inteligencja jest największym zagożeniem dla cywilizacji
Musk ostrzega przed ChatGPT
15 lutego 2023 r. Elon Musk wziął udział w dubajskim World Government Summit: Światowym Szczycie Rządu, który skupia liderów polityki, gospodarki, technologii itp. Miliarder jest również współzałożycielem firmy technologicznej OpenAI. W środę został zapytany o jej produkt, jakim jest ChatGPT.
"Jednym z największych zagrożeń dla przyszłości cywilizacji jest AI [sztuczna inteligencja – przyp. red.]" – powiedział Musk, cytowany przez amerykański portal CNBC. Dlaczego produkt OpenAI miałby być dla nas niebezpieczny?
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Problem z ChatGPT
Zdaniem miliardera ChatGPT bardzo wyraźnie pokazał, jak niezwykle zaawansowana stała się do tej pory sztuczna inteligencja. Zwłaszcza odkąd wyposażono ją w interfejs użytkownika, który jest dostępny dla większości ludzi.
Problem tkwi w tym, że odnośnie do AI nie powstały jeszcze żadne zasady ani przepisy, które utrzymywałyby jej rozwój pod kontrolą. Samoloty czy samochody są objęte normami bezpieczeństwa i zdaniem Muska powinny one istnieć również wobec sztucznej inteligencji.
CNBC podkreśliło, że miliarder już od długiego czasu ostrzega przed niebezpieczeństwami, jakie wynikają z niczym nieograniczonego rozwoju AI. Tymczasem ma ono być "znacznie bardziej niebezpieczne niż głowice nuklearne".
W innym artykule w INNPoland pisaliśmy o tym, jak medyczny start-up AnsibleHealth sprawdzał ChatGPT pod kątem wiedzy medycznej. Miał zdać USMLE, czyli trzy egzaminy potrzebne do uzyskania licencji medycznej w Stanach Zjednoczonych. Produkt OpenAI otrzymał 350 pytań medycznych pochodzących z USMLE z 2022 r.
Poprawnie odpowiedział na między 52,4 proc. a 75,0 proc. Tymczasem aby zostać lekarzem, potrzebne jest 60 poc. Nie oznacza to jednak, że sprawdziłby się jako "samodzielny" doktor.
"ChatGPT ani nie "rozumuje", ani nie "myśli". Po prostu dostarcza tekst oparty na ogromnym i bardzo wyrafinowanym modelu prawdopodobieństwa" – poinformował prof. Alfonso Valencia z Narodowego Centrum Superkomputerowego w Barcelonie. Valencia został zacytowany przez portal sciencemediacentre.org.
Nie oznacza to jednak, że ChatGPT nie będzie pomocny w świecie medycyny. O jego zaletach w rozmowie z Science Media Centre powiedziała Lucía Ortiz de Zárate, doktorantka z dziedziny etyki i zarządzania sztuczną inteligencją z Uniwersytetu Autonomicznego w Madrycie.
W INNPoland od września 2022 r. Przedtem pisała artykuły dla magazynów studenckich oraz wykonywała w nich redakcję i korektę. W czasie wolnym czyta o PRL-u oraz psychologii, gra w planszówki i głaszcze koty.
Ten rodzaj badań pokazuje z jednej strony potencjał sztucznej inteligencji do zastosowań medycznych, a z drugiej potrzebę ponownego przemyślenia metod oceny wiedzy. W praktyce medycznej technologie AI mogą być bardzo istotną pomocą dla lekarzy przy stawianiu diagnoz, przepisywaniu terapii, leków itp. Te zmiany zmuszają nas do ponownego przemyślenia relacji między AI, lekarzami i pacjentami.
Lucía Ortiz de Zárate
doktorantka z Uniwersytetu Autonomicznego w Madrycie