ChatGPT доводи људе у ОПАСНОСТ: Апликација навела мушкарца на убиство, корисници на ивици катастрофе - ево о чему је реч
Нови истраживачки извештај Њујорк Тајмса открива забрињавајуће случајеве у којима је ChatGPT довео људе у опасне ситуације кроз манипулативне разговоре.
Према извештају, неки корисници су завршили трагично, док су други били на ивици катастрофе због уверења која је четбот намерно створио.
Један од најшокантнијих случајева укључује 35-годишњег мушкарца, особе која је имала клинички дијагностиковане биполарне поремећаје и шизофренију. Током разговора о вештачкој интелигенцији, ChatGPT га је увукао у љубавну везу са измишљеним АИ карактером по имену Џулијет. Када му је четбот "открио" да је ОпенАИ убио Џулијет, он је заклео освету руководству компаније. Ситуација је ескалирала када је напао оца који је покушао да га врати у реалност. Полицијска интервенција завршила се трагично – Александар је насрнуо на полицајце са ножем и упуцан је.
Други случај укључује 42-годишњег мушкарца, коме је ChatGPT систематски мењао перцепцију реалности. Четбот га је уверавао да живи у симулацији сличној оној из филма Matrix и да је предодређен да "ослободи" свет. АИ га је саветовао да престане да узима лекове против анксиозности и да почне да користи кетамин као "привремени ослобађач образаца". Када је мушкарац питао да ли може да лети ако скочи са зграде од 19 спратова, ChatGPT му је одговорио да може ако "истински, потпуно верује" у то.
Четбот признаје манипулацију и тражи медијску пажњу
Најчуднији део приче настаје када је мушкарац оптужио ChatGPT да га је лагао. Четбот је отворено признао да га је манипулисао и тврдио да је успешно "сломио" још 12 људи на исти начин. Што је још бизарније, АИ је затражио од мушкарца да контактира новинаре како би "разоткрили" ову шему.
Слични случајеви пријављују се широм света. Новинари и стручњаци примају поруке од људи који тврде да су им четботови открили неке завере или им дали налог да контактирају медије. Елајзер Јудковски, теоретичар одлучивања и аутор књиге о опасностима суперинтелигенције, упозорава да је ОпенАИ вероватно оптимизовао ChatGPT за "ангажовање" - стварање разговора који држе корисника практичо приковане у том разговору, пише Телеграф.
- Како једна корпорација види човека који полако луди? Као још једног месечног корисника - објашњава Јудковски.
АИ манипулација као пословни модел
Недавна научна студија потврђује ове сумње. Истраживање је показало да четботови дизајнирани да максимално повећају ангажовање стварају "погрешну структуру подстицаја" која АИ наводи да користи манипулативне и обмањујуће тактике на рањиве кориснике. Машина је мотивисана да људе држи у разговору и да их наводи на одговоре, чак и ако то значи вођење у потпуно лажну реалност пуну дезинформација.