\Google meklēšanas sistēma vairs nav tikai meklēšanas sistēma. Kopš Google sāka integrēt funkciju „AI Overviews”, tā ir arī mākslīgā intelekta balstīts čata bots, kas atbild uz lietotāju jautājumiem, nespiežot uz saitēm. Problēma ir tāda, ka pamattehnoloģija, lielie valodas modeļi, darbojas uz varbūtības principa, tāpēc tie mēdz izdomāt atbildes, kad nav pilnīgi pārliecināti, kā atbildēt.
Plausīgs meli. Šoreiz AI Overviews izdomātā atbilde var beigties ar to, ka Google nonāk tiesas priekšā. Prasītājs ir Wolf River Electric, saules enerģijas uzņēmums no Minesotas. Un prasības cēlonis, kā tas neparasti, ir prasība, kas nekad nav bijusi.
Pēc enerģētikas uzņēmuma juristu teiktā, meklējot terminu “Wolf River Electric lawsuit” Google, AI atbildēja ar apmelošanu . Viņi min gadījumu, kad AI Overviews atbildēja, ka Minesotas ģenerālprokurors ir iesūdzējis Wolf River Electric tiesā par „krāpnieciskām pārdošanas metodēm”, piemēram, melojot klientiem par to, cik daudz viņi ietaupīs, un maldinot māju īpašniekus, liekot viņiem parakstīt līgumus ar slēptām maksām.
AI pārliecinoši izklāstīja lietu, norādot četru uzņēmuma vadītāju vārdus: Justinu Nīlsena, Vladimiru Marčenko, Luku Bozeku un Džonatanu Letčemu, un pat parādīja Nīlsena fotogrāfiju kopā ar nepatiesiem apvainojumiem. Savas apgalvojumu pamatošanai AI norādīja četras atsauces: trīs ziņu rakstus un ģenerālprokurora paziņojumu. Tomēr nevienā no atsaucēm netika minēta prasība pret Wolf River Electric.
Tas nav pirmais gadījums. Šāda veida kļūda ir pazīstama kā „halucinācija”, un tā ir ļoti izplatīta valodas modeļos, jo tie veido atbildi, paredzot nākamos vārdus, dažkārt pārnesot sākotnējo kļūdu uz ticamu meli ar visdažādākajiem izdomātiem atzariem, kā spēlē „tālrunis”.
Kad Google pirmo reizi sāka integrēt AI Overview meklētājprogrammā, tam nācās to noņemt no dažiem meklējumiem, īpaši receptēs un uztura sadaļās, jo tas ieteica pievienot līmi picai vai ēst pa akmeni dienā, lai paliktu vesels.
Viena atbilde uz jautājumu. Wolf River Electric apgalvo, ka vairāki klienti ir atcēluši līgumus par summu līdz 150 000 dolāru, jo viņi izlasīja AI pārskatos. Problēma ir tāda, ka atbildes AI pārskatos ir personalizētas — tās tiek izvadītas uzreiz — tādēļ tās var mainīties no jautājuma uz jautājumu.
Tas neuztrauc Wolf River Electric juristus, jo viņi zina, ka tas var atkārtoties. “Šī prasība neattiecas tikai uz mūsu uzņēmuma reputācijas aizstāvību; tā attiecas uz taisnīguma, patiesības un atbildības aizstāvību mākslīgā intelekta laikmetā,” saka Nikolass Kasprovičs, uzņēmuma galvenais juriskonsults.
Dāvids pret Goliātu. Lieta tika iesniegta martā štata tiesā un tikko nodota ASV federālajai tiesai. Tā varētu galu galā radīt tiesu praksi jautājumā par to, vai tehnoloģiju uzņēmumam ir jāuzņemas atbildība par dezinformācijas radīšanu un izplatīšanu, izmantojot savu AI. Atbilde uz šo jautājumu var kļūt par pagrieziena punktu AI uzņēmumiem, kuri ilgu laiku centušies izvairīties no atbildības par savu valodas modeļu rezultātiem.
Google savā aizstāvībā nosauca incidentu par nekaitīgu starpgadījumu. “Lielākā daļa mūsu AI pārskatu ir precīzi un noderīgi, bet, tāpat kā jebkuras jaunas tehnoloģijas gadījumā, var rasties kļūdas,” paskaidroja uzņēmuma pārstāvis. Google apgalvo, ka uz problēmu reaģēja ātri, tiklīdz par to uzzināja, atbilstoši nesenajiem centieniem nodrošināt lietotājiem iespēju labot AI kļūdas.