OpenAI uždraudė ChatGPT teikti medicinines, teisines ir finansines konsultacijas
ChatGPT naujosios taisyklės uždraudžia teikti medicinines, teisines ir finansines konsultacijas. Sužinokite, kodėl didžiosios technologijų kompanijos riboja dirbtinį intelektą ir paverčia jį tik „švietimo įrankiu“.
Kurį laiką buvo viliojanti mintis traktuoti dirbtinio intelekto modelius, tokius kaip ChatGPT, kaip viską žinančius orakulus kiekvienai gyvenimo krizei. Keista odos dėmė? Paklausk ChatGPT. Reikia parašyti testamentą? Paklausk ChatGPT. Tačiau šis laikotarpis oficialiai baigėsi – dėl didžiulės atsakomybės rizikos technologijų milžinės spaudžia stabdžius.
Nuo spalio 29 dienos, kaip praneša šaltiniai, ChatGPT taisyklės pasikeitė: dabar jis nebegali pateikti konkrečių medicininių, teisinių ar finansinių patarimų.
Kaip rašo NEXTA, šis įrankis dabar oficialiai laikomas „švietimo priemone“, o ne „konsultantu“. Priežastis? Pasak NEXTA, „reguliavimai ir atsakomybės baimė jį suvaržė – didžiosios technologijų kompanijos nenori teismų bylų ant savo pečių.“
Dabar, užuot pateikęs tiesioginius patarimus, modelis „tik paaiškins principus, apibūdins bendrus mechanizmus ir patars kreiptis į gydytoją, teisininką ar finansų specialistą.“ Šis oficialus apribojimas tik išryškina gilesnę tiesą: ChatGPT yra, ir visada buvo, meistras įtikinamai kurti klaidingą informaciją. Jis puikiai moka būti „įtikinamai neteisus.“
Nors tai nekenksminga, kai rašai eilėraštį apie savo katę, realaus pasaulio problemoms tai gali būti pražūtinga. Naujosios saugumo gairės atsirado ne be priežasties, ir net už jų ribų yra daugybė sričių, kuriose niekada nereikėtų pasitikėti šio įrankio patarimais.
Naujosios ChatGPT ribos: sveikata, teisė ir finansai
Kaip praneša NEXTA, naujos taisyklės yra aiškios: „nebegalima nurodyti vaistų pavadinimų ar dozių… jokios teismo dokumentų formos… jokios investavimo rekomendacijos ar pasiūlymai pirkti/parduoti.“ Šie ribojimai tiesiogiai reaguoja į ilgai tvyrojusias baimes, susijusias su šia technologija.
Kai kurie žmonės gali imtis iniciatyvos ir savo sveikatos klausimus patikėti ChatGPT, iš smalsumo įvedę simptomus. Gautos atsakymo eilutės dažnai atrodo kaip blogiausio scenarijaus aprašymai – svyruojantys nuo paprasto skysčių trūkumo iki rimtų diagnozių, tokių kaip vėžys. Jei vartotojas įvestų „turiu gumbą ant krūtinės“, dirbtinis intelektas galėtų pasiūlyti galimybę, kad tai piktybinis navikas.
Realiame gyvenime tas pats žmogus vėliau gali sužinoti, kad gumbas – tai tik lipoma, o licencijuotas gydytojas patvirtins, kad tai nėra vėžys. Būtent dėl tokių atvejų ir buvo įvestos naujosios taisyklės. Dirbtinis intelektas negali paskirti tyrimų, apžiūrėti žmogaus ar turėti profesinės atsakomybės draudimo.
Tai susiję ne tik su fizine sveikata. Kai kurie žmonės naudoja ChatGPT kaip pakaitinį terapeutą. Nors jis gali pasiūlyti tam tikras nusiraminimo technikas, geriausiu atveju tai tik blanki imitacija, o blogiausiu – itin pavojingas pasirinkimas.
ChatGPT neturi gyvenimiškos patirties, negali matyti jūsų kūno kalbos ir visiškai neturi tikros empatijos. Licencijuotas psichoterapeutas privalo laikytis įstatymų, kurie užtikrina jūsų saugumą nuo žalos, o ChatGPT – ne. Jei jūs ar jums artimas žmogus patiria krizę, JAV prašome skambinti 988 arba savo šalies pagalbos linijos numeriu.
Tas pats griežtas „ne“ dabar taikomas ir finansams bei teisiniams klausimams. ChatGPT gali paaiškinti, kas yra ETF, tačiau jis nežino jūsų skolos ir pajamų santykio, pensijos tikslų ar rizikos tolerancijos. Kai kalbama apie tikrus pinigus ir galimas mokesčių tarnybos sankcijas, reikia kreiptis į profesionalą.
Tai taip pat susiję su rimta duomenų saugumo rizika: atminkite, kad bet kokia informacija, kurią pateikiate – įskaitant pajamas, socialinio draudimo numerį ar banko sąskaitos duomenis – gali tapti mokymų duomenų dalimi. Lygiai taip pat prašyti ChatGPT parengti testamentą yra loterija. Paveldėjimo įstatymai skiriasi priklausomai nuo valstijos, o trūkstama notarinio patvirtinimo sąlyga gali padaryti visą dokumentą negaliojantį.
Kodėl ChatGPT nesugeba susidoroti su aukštos rizikos ir realaus laiko užduotimis
Be oficialiai uždraustų temų, ChatGPT turi esminių trūkumų, kai kalbama apie situacijas, kuriose kyla reali grėsmė ar būtina greita reakcija. Jei pradeda pypsėti anglies monoksido detektorius, prašome neatidaryti ChatGPT ir neklausti, ar jums gresia pavojus. Pirmiausia evakuokitės. Didelio kalbos modelio negalima laikyti gelbėtoju – jis negali užuosti dujų ar išsiųsti pagalbos tarnybų. Tokį įrankį reikėtų vertinti tik kaip paaiškinantį po įvykio, o ne kaip pirmąją pagalbą.
Šis ribotumas apima ir darbą su realaus laiko informacija. Nuo tada, kai OpenAI 2024 m. pabaigoje pristatė ChatGPT Search funkciją, pokalbių robotas gali pasiekti naujausius tinklalapius ar pateikti akcijų kainas. Tačiau jis nepateikia nuolatinių atnaujinimų. Kiekvienam naujam rezultatui reikia naujos užklausos, todėl šis įrankis netinka stebėti besivystančioms naujienoms.
Be to, ChatGPT yra prastas „lošėjas“. Nors kai kurie vartotojai gali pasigirti sėkmingu statymu ar laimėjimu, naudodamiesi ChatGPT per didelį sporto čempionatą, tai nėra niekaip rekomenduotina. Naudotojai pastebėjo, kad ChatGPT kartais „halucinuoja“ – pateikia netikslius žaidėjų statistikos duomenis, klaidingas traumų ataskaitas ar neteisingus pergalių-pralaimėjimų rodiklius.
Bet kokia sėkminga prognozė greičiausiai pasitaikė tik todėl, kad vartotojas patikrino kiekvieną teiginį pagal realaus laiko koeficientus – ir net tuomet sėkmė buvo pagrindinis veiksnys. ChatGPT negali matyti rytdienos rezultatų suvestinės, todėl niekas neturėtų jo naudoti kaip garantijos pergalei.
Labai svarbu – vartotojas niekada neturėtų pateikti ChatGPT konfidencialių duomenų. Pavyzdžiui, technologijų žurnalistas niekada nepateiktų spaudos pranešimo, kuriam taikomas embargas, kad dirbtinis intelektas jį apibendrintų. Toks tekstas būtų perduotas į trečiosios šalies serverį, kuriame vartotojas jau nebekontroliuoja savo duomenų.
Ta pati rizika taikoma ir klientų sutartims, medicininiams įrašams ar paso numeriams. Kai tik jautri informacija patenka į užklausą, nėra jokios garantijos, kur ji bus saugoma ar kas galės ją peržiūrėti.
Etinės ChatGPT spąstai: sukčiavimas ir menas
Galiausiai lieka etinės pilkosios zonos. Prašyti ChatGPT padėti atlikti neteisėtus veiksmus – savaime aiškiai nepriimtina. Tačiau kaip dėl apgaulės mokykloje? Nors kai kurie gali nesididžiuoti, kad paauglystėje naudodavo technologijas tam, kad „nukopijuotų“ užduotis, dabartinio masto sukčiavimas yra visiškai kitokio lygio.
Tokios sistemos kaip „Turnitin“ nuolat tobulėja, o dėstytojai jau geba akimirksniu atpažinti „ChatGPT stilių“. Tokia apgaulė gali baigtis suspendavimu, o galiausiai žmogus apgauna tik save – atima iš savęs tikrą mokymosi galimybę. Šį įrankį reikėtų naudoti kaip mokymosi pagalbininką, o ne kaip nematomą rašytoją.
Tada kyla klausimas apie meną. Tai nėra objektyvi tiesa, o tik viena iš nuomonių, tačiau kai kurie mano, kad dirbtinis intelektas neturėtų būti naudojamas menui kurti. Daugelis pasitelkia ChatGPT idėjoms ar antraštėms generuoti, tačiau tai yra papildymas, o ne pakaitalas. Be abejo, galima naudoti ChatGPT kūrybiniam procesui, bet prašome – nekurkite meno, kurį vėliau pateikiate kaip savo paties darbą. Kai kam tai atrodo tiesiog „šiek tiek šlykštu“.
Naujosios ChatGPT saugumo ribos nėra tik menkas atnaujinimas – tai viešas pripažinimas, kad sistema turi esminių trūkumų. Susidūrusios su teisiniais ir reguliavimo spaudimais, didžiosios technologijų kompanijos oficialiai pažemino šio įrankio statusą – iš potencialaus „konsultanto“ jis tapo paprastu „švietimo įrankiu“.
Nuo klaidingų sveikatos būklių diagnozių iki išgalvotos teisinės ar finansinės informacijos – rizika per didelė. Išvada aiški: ChatGPT gali būti galingas pagalbininkas papildymui, tačiau jis yra pavojingas pakaitalas žmogiškai patirčiai ir ekspertinėms žinioms.
Šaltinis:
https://www.ibtimes.co.uk/chatgpt-admits-its-limit-new-rules-ban-specific-legal-health-money-tips-report-1751762