Novinky v používaní ChatGPT sa dotknú aj tém, na ktoré bude chatbot môcť a vedieť odpovedať.
OpenAI aktualizovalo svoje pravidlá používania ChatGPT, explicitne zakazujúc jeho využitie na poskytovanie lekárskej, právnej alebo inej rady vyžadujúcej odbornú licenciu. Zmena reaguje na rastúcu debatu o tom, že ľudia čoraz častejšie využívajú AI chatboty na odborné konzultácie, najmä v zdravotníctve.
Umelá inteligencia rýchlo mení odvetvia po celom svete a zdravotníctvo nie je výnimkou. ChatGPT, navrhnutý ako veľký jazykový model s konverzačným rozhraním, bol často používaný na okamžité odpovede na zdravotné otázky. Jeho dostupnosť a rýchlosť ho robia lákavou alternatívou k profesionálnym konzultáciám – trend, ktorý odborníci označujú za eticky a právne problematický.
- konzultácie vyžadujúce odbornú certifikáciu (vrátane lekárskej alebo právnej rady);
- rozpoznávanie tváre alebo osôb bez súhlasu;
- kritické rozhodovanie v oblastiach ako financie, vzdelávanie, bývanie, migrácia alebo zamestnanie bez ľudského dohledu;
- podieľanie sa na akademickom podvádzaní alebo manipulovaní s hodnoteniami.
OpenAI uviedlo, že zmeny pravidiel majú „zvýšiť bezpečnosť používateľov a predísť potenciálnej škode“ pri používaní systému nad jeho schopnosti.
Hoci spoločnosť nevydala podrobné vyjadrenie, analytici zmenu vnímajú ako spôsob minimalizácie právnych rizík. Používanie AI na odborné alebo citlivé rady je stále málo regulované, čo vystavuje vývojárov aj používateľov možnej právnej zodpovednosti.
Zmena prichádza v čase, keď ľudia čoraz častejšie využívajú chatboty na zložité alebo vysokorizikové konzultácie, pričom niektorí uvádzajú, že im AI pomohla pri právnych procesoch alebo samodiagnóze. Systém posilnil bezpečnostné filtre, ktoré bránia poskytovaniu konkrétnej rady a dôslednejšie vynucujú nové hranice.
OpenAI zároveň upravilo predvolený model tak, aby lepšie rozpoznával a podporoval ľudí v krízových situáciách.
Posilňujte ľudí. Ľudia by mali byť schopní robiť rozhodnutia o svojom živote a svojich komunitách. Preto nedovolíme používanie našich služieb na manipuláciu alebo klamanie ľudí, zasahovanie do ich ľudských práv, zneužívanie ich zraniteľnosti alebo zasahovanie do ich schopnosti získať vzdelanie či prístup k dôležitým službám, vrátane akéhokoľvek použitia na:
akademickú nepoctivosť
klamstvo, podvody, podvody online, spam alebo vydávanie sa za niekoho iného
politické kampane, lobovanie, zasahovanie do zahraničných alebo domácich volieb, alebo demobilizačné aktivity
automatizáciu rozhodnutí s vysokými následkami v citlivých oblastiach bez ľudskej kontroly
kritickú infraštruktúru
vzdelávanie
bývanie
zamestnanie
finančné aktivity a úver
poistenie
právne služby
lekárske služby
základné vládne služby
komponenty bezpečnosti produktov
národnú bezpečnosť
„Naše bezpečnostné zlepšenia v nedávnej aktualizácii modelu sa zameriavajú na tieto oblasti: 1) duševné zdravie, ako psychóza alebo mánia; 2) sebapoškodzovanie a samovražda; 3) emocionálna závislosť na AI. Okrem doterajších bezpečnostných metrík pre samovraždu a sebapoškodzovanie pridávame emocionálnu závislosť a ne-sebovražedné duševné krízy do štandardného testovania budúcich modelov,“ oznámila spoločnosť.