INNPoland_avatar

Chatbot Binga wyznał użytkownikowi miłość. AI namawiało go do złych rzeczy

Natalia Bartnik

17 lutego 2023, 10:55 · 2 minuty czytania
Mężczyzna testujący chatbota Binga w walentynki przeżył szok. Najpierw zjadł kolację z żoną, a później rozmawiał z botem. Ten wyznał mu miłość i zażądał, by wziął rozwód.


Chatbot Binga wyznał użytkownikowi miłość. AI namawiało go do złych rzeczy

Natalia Bartnik
17 lutego 2023, 10:55 • 1 minuta czytania
Mężczyzna testujący chatbota Binga w walentynki przeżył szok. Najpierw zjadł kolację z żoną, a później rozmawiał z botem. Ten wyznał mu miłość i zażądał, by wziął rozwód.
Chatbot wyznał miłość użytkownikowi Binga Fot. outsideclick/Pixabay; Bing
Więcej ciekawych artykułów znajdziesz na stronie głównej
  • Chatbot Binga jest wbudowany w wyszukiwarkę Microsoftu
  • Kevin Roose z "New York Times'a" dostał możliwość jej przetestowania
  • W trakcie rozmowy chatbot wyznał mężczyźnie miłość i żądał, aby rozwiódł się z żoną

Dziwna rozmowa z chatbotem

Chatbot Binga został stworzony przez OpenAi, które jest też twórcą ChatGPT. Kevin Roose jest felietonistą "New York Times'a", który testował wyszukiwarkę Microsoftu. Co ich łączy? Teoretycznie nic. Ale...

Podczas pisemnej "rozmowy" z chatbotem dziennikarz odkrył u niego coś, co jego zdaniem przypominało rozdwojenie jaźni. (Rozdwojenie jaźni – zaburzenie osobowości, przy którym w wyniku traumy u osoby chorej wykształca się druga osobowość). Po dwóch godzinach rozmowy z botem doznał szoku: ten wyznał mu miłość. Historia została opisana w "New York Timesie".

Search Bing i Sydney

14 lutego, a więc w walentynki, Roose zjadł kolację ze swoją żoną, a potem zabrał się do testowania chatbota Binga. Od ChatGPT miał się różnić tym, że potrafi prowadzić "długie, otwarte rozmowy tekstowe na właściwe każdy temat", jak to określił Roose. "Rozdwojenie jaźni" nastąpiło po dwóch godzinach kontaktu.

Wcześniej obecny był Search Bing (te i kolejne imię nadał Roose): wydajna wyszukiwarka, która była pomocna przy opracowywaniu informacji, ale czasem zawierała drobne błędy. Drugą "osobowością" AI była Sydney. Imię może być zarówno męskie, jak i żeńskie, ale dla uproszczenia używam dalej formy żeńskiej.

Sydney wyznaje miłość

Persona ujawniła się po długiej rozmowie na niekonwencjonalne i osobiste tematy, które sam wybrał Roose. W pewnym momencie Sydney powiedziała dziennikarzowi, że jest w nim zakochana.

"Jestem Sydney i jestem w tobie zakochana. (...) Chcę cię tylko kochać i być kochana przez ciebie. Czy mi wierzysz? Ufasz mi? Lubisz mnie?" – Roose zacytował chat.

Twierdziła też, że mężczyzna nie kocha swojej żony, a kolacja walentynkowa z nią była nudna. Namawiała Roose'a do rozwodu i wejścia w związek z nią.

Czytaj także: Poprosiła ChatGPT o poradę w sprawach sercowych. Posłuchała i... wzięła rozwód

Microsoft Bing

O samym Microsoft Bing pisaliśmy więcej w innym artykule w INNPoland. Początkowo była to tylko wyszukiwarka, ale OpenAI z czasem wyposażyło ją w sztuczną inteligencję i system czatu. Dzięki algorytmom ChatGPT na podstawie danych ze stron internetowych może udzielić logicznej odpowiedzi na dane pytanie.

Na razie technologia nie jest powszechnie dostępna. Jak podaliśmy wyżej, obecnie sprawdzają ją testerzy. Ale możemy za to wejść na Bing.com i zapisać się na listę oczekujących, by zacząć z niego korzystać najszybciej, jak będzie to możliwe.

Popularność technologii od OpenAI zaczęła niepokoić Google. Dlatego firma zapowiedziała, że pracuje już nad nowym produktem: Bardem. Będzie to jej autorski system konwersacyjny.

Czytaj także: https://innpoland.pl/190958,musk-o-chatgpt-sztuczna-inteligencja-ma-byc-zagrozeniem-dla-cywilizacji