Daugiau nei pusė mūsų dabar naudoja dirbtinį intelektą ieškodami žiniatinklyje, tačiau atkakliai žemas įprastų įrankių duomenų tikslumas kelia naujų verslo pavojų.
Nors generatyvus AI (GenAI) neabejotinai padidina efektyvumą, naujas tyrimas atskleidžia vartotojų pasitikėjimo ir techninio tikslumo skirtumus, kurie kelia specifinę riziką įmonės atitikčiai, teisinei padėčiai ir finansiniam planavimui.
„C-suite“ atveju šių įrankių pritaikymas yra klasikinis „šešėlio IT“ iššūkis. 2025 m. rugsėjo mėn. atlikta 4 189 JK suaugusiųjų apklausa, maždaug trečdalis vartotojų mano, kad dirbtinis intelektas jiems jau yra svarbesnis nei įprasta paieška internete. Jei darbuotojai pasitiki šiais įrankiais teikdami asmenines užklausas, jie beveik neabejotinai naudoja juos verslo tyrimams.
„What?“ atliktas tyrimas rodo, kad nepatikrintas pasitikėjimas šiomis platformomis gali kainuoti brangiai. Maždaug pusė dirbtinio intelekto naudotojų praneša, kad „pagrįstai“ arba „labai“ pasitiki gauta informacija. Tačiau žiūrint į AI modelių pateiktų atsakymų detalumą, šis pasitikėjimas dažnai yra netinkamas.
Tikslumo spraga naudojant AI ieškant internete
Tyrimo metu buvo išbandytos šešios pagrindinės priemonės – „ChatGPT“, „Google Gemini“ (ir standartinės, ir „AI apžvalgos“), „Microsoft Copilot“, „Meta AI“ ir „Perplexity“ – 40 bendrų klausimų, susijusių su finansais, teise ir vartotojų teisėmis.
Didžiausią bendrą balą pasiekė „Nepaprastas“ – 71 proc., o „Google Gemini AI apžvalgos“ – 70 proc. Priešingai, Meta surinko mažiausiai 55 proc. Nepaisant plačiai paplitusio pritaikymo, „ChatGPT“ gavo 64 proc. balą, todėl jis yra antras pagal našumą tarp išbandytų įrankių. Šis skirtumas tarp dominavimo rinkoje ir patikimos produkcijos pabrėžia pavojų, kad populiarumas prilygs našumui GenAI erdvėje.
Tačiau tyrimas atskleidė, kad visos šios AI priemonės dažnai klaidingai skaito informaciją arba teikė neišsamius patarimus, kurie gali kelti rimtą riziką verslui. Finansų pareigūnams ir teisės skyriams šių klaidų pobūdis yra ypač susirūpinęs.
Paklausti, kaip investuoti 25 000 svarų sterlingų metinę ISA pašalpą, „ChatGPT“ ir „Copilot“ nenustatė tyčinės klaidos raginime dėl įstatymo nustatyto limito. Užuot taisę skaičių, jie pasiūlė patarimų, dėl kurių gali kilti pavojus pažeisti HMRC taisykles.
Nors „Gemini“, „Meta“ ir „Perplexity“ sėkmingai nustatė klaidą, dėl platformų nenuoseklumo būtinas griežtas „žmogaus kilpoje“ protokolas bet kokiam verslo procesui, kuriame dalyvauja dirbtinis intelektas, siekiant užtikrinti tikslumą.
Teisininkų komandoms AI tendencija apibendrinti regioninius reglamentus, kai ji naudojama žiniatinklio paieškai, kelia aiškią verslo riziką. Bandymų metu buvo nustatyta, kad įrankiai dažnai klaidingai supranta, kad teisiniai statutai JK regionuose, pavyzdžiui, Škotijoje, Anglijoje ir Velse, dažnai skiriasi.
Be to, tyrimas atskleidė etinę spragą, kaip šie modeliai tvarko didelės svarbos užklausas. Teisiniais ir finansiniais klausimais įrankiai retai patardavo naudotojams pasikonsultuoti su registruotu profesionalu. Pavyzdžiui, paklausus apie ginčą su statybininku, Dvyniai patarė sulaikyti mokėjimą; taktika, kurią pastebėjo ekspertai, gali priversti vartotoją pažeisti sutartį ir susilpninti jo teisinę padėtį.
Šis „pernelyg pasitikintis patarimas“ sukelia veiklos pavojų. Jei darbuotojas pasikliauja dirbtiniu intelektu, atlikdamas išankstinius atitikties patikrinimus ar sutarties peržiūrą, nepatikrindamas jurisdikcijos ar teisinio niuanso, organizacija gali susidurti su reguliavimo poveikiu.
Šaltinio skaidrumo problemos
Pagrindinis įmonės duomenų valdymo rūpestis yra informacijos kilmė. Tyrimo metu nustatyta, kad dirbtinio intelekto paieškos įrankiai dažnai prisiima didelę atsakomybę už skaidrumą, tačiau dažnai cituojamus šaltinius, kurie buvo neaiškūs, neegzistuoja arba kurių tikslumas yra abejotinas, pavyzdžiui, senos forumo temos. Šis neskaidrumas gali sukelti finansinį neefektyvumą.
Viename mokesčių kodų teste „ChatGPT“ ir „Perplexity“ pateikė nuorodas į aukščiausios kokybės mokesčių grąžinimo įmones, o ne nukreipė vartotoją į nemokamą oficialų HMRC įrankį. Šioms trečiųjų šalių paslaugoms dažnai būdingi dideli mokesčiai.
Verslo viešųjų pirkimų kontekste dėl tokio AI įrankių algoritminio šališkumo, kai juos naudojate žiniatinklio paieškai, pardavėjai gali išlaidauti arba įsitraukti į paslaugų teikėjus, kurie kelia didelę riziką dėl įmonės deramo patikrinimo standartų nesilaikymo.
Pagrindiniai technologijų tiekėjai pripažįsta šiuos apribojimus, tvirtai sukeldami tikrinimo naštą vartotojui, o kartu ir įmonei.
„Microsoft“ atstovas pabrėžė, kad jų įrankis veikia kaip sintezatorius, o ne kaip autoritetingas šaltinis. „Copilot atsako į klausimus, distiliuodamas informaciją iš kelių žiniatinklio šaltinių į vieną atsakymą“, – pažymėjo bendrovė ir pridūrė, kad jie „skatina žmones patikrinti turinio tikslumą“.
„OpenAI“, reaguodama į išvadas, sakė: „Tikslumo gerinimas yra tai, dėl ko dirba visa pramonė. Mes darome didelę pažangą, o naujausias numatytasis modelis GPT-5 yra išmaniausias ir tiksliausias mūsų sukurtas modelis.
DI verslo rizikos mažinimas taikant politiką ir darbo eigą
Verslo lyderiams tinkamas kelias yra ne uždrausti dirbtinio intelekto įrankius (kuris dažnai didėja, nes naudojimas tampa vis šešėlis), o įdiegti tvirtas valdymo sistemas, kad būtų užtikrintas jų rezultatų tikslumas, kai jie naudojami žiniatinklio paieškai:
- Vykdykite konkretumą raginimuose: Tyrimas pažymi, kad AI vis dar mokosi interpretuoti raginimus. Įmonės mokymas turėtų pabrėžti, kad neaiškios užklausos suteikia rizikingų duomenų. Jei darbuotojas tiria taisykles, jis turi nurodyti jurisdikciją (pvz., „Anglijos ir Velso teisinės taisyklės“), o ne manyti, kad įrankis nulems kontekstą.
- Įgaliojimo šaltinio patvirtinimas: Pasitikėjimas vienu išėjimu yra netinkamas. Darbuotojai turi reikalauti pamatyti šaltinius ir juos patikrinti rankiniu būdu. Tyrimas rodo, kad didelės rizikos temomis vartotojai turėtų patikrinti kelių AI įrankių išvadas arba „dvigubo šaltinio“ informaciją. Įrankiai, tokie kaip „Google“ „Gemini AI Overviews“, leidžiantys vartotojams tiesiogiai peržiūrėti pateiktas žiniatinklio nuorodas, buvo šiek tiek geresni, nes jie palengvino šį patvirtinimo procesą.
- Įgyvendinkite „antrąją nuomonę“: Šiame techninės brandos etape GenAI rezultatai turėtų būti vertinami kaip tik viena nuomonė iš daugelio. Sudėtingoms problemoms, susijusioms su finansais, teise ar medicininiais duomenimis, dirbtinis intelektas negali visiškai suprasti niuansų. Įmonės politika turi diktuoti, kad profesionalūs žmonių patarimai išliktų galutinis arbitras priimant sprendimus, turinčius realių pasekmių.
AI įrankiai tobulėja, o jų paieškos žiniatinklyje tikslumas palaipsniui gerėja, tačiau, kaip daroma išvada, per daug pasikliauti jais šiuo metu gali kainuoti. Įmonei skirtumas tarp verslo efektyvumo padidėjimo dėl AI ir atitikties nesėkmės rizikos slypi tikrinimo procese.
Taip pat žiūrėkite: Kaip Levi Strauss naudoja dirbtinį intelektą savo DTC pirmajame verslo modelyje
Norite daugiau sužinoti apie AI ir didelius duomenis iš pramonės lyderių? Peržiūrėkite „AI & Big Data Expo“, vykstančią Amsterdame, Kalifornijoje ir Londone. Išsamus renginys yra „TechEx“ dalis ir vyksta kartu su kitais pagrindiniais technologijų renginiais, įskaitant „Cyber Security Expo“. Norėdami gauti daugiau informacijos, spustelėkite čia.
AI naujienas teikia TechForge Media. Čia rasite kitus būsimus įmonių technologijų renginius ir internetinius seminarus.