Juturoboti-vestlusi kasutatakse meile personaalse reklaami suunamiseks

Terviseinfot jagades hakkad nägema ravimireklaame ettevõtte teistes teenustes.

Kui meeldib:
Jaga postitust:
Toeta järgmise loo valmimist
Toeta täna

Stanfordi ülikool on avaldanud uuringu, mis tõdeb, et vesteldes juturobotiga tuleb arvestada korraliku privaatsusriskiga, sest tehisaruettevõtted õpetavad oma mudeleid kasutajate vestlustega. Peale selle ühendavad mitme tootega ettevõtted, nt Google, Meta jt, kasutajate suhtlust muude ettevõtte toodetega, nt otsingu, poe, sotsiaalmeediaga.

Stanfordi ülikooli teadlased teadlased võrdlesid kuue USA tehisaruettevõtte – Amazon (Nova), Anthropic (Claude), Google (Gemini), Meta (Meta AI), Microsoft (Copilot) ja OpenAI (ChatGPT) – privaatsusreegleid, korduma kippuvaid küsimusi ja muid juhiseid. Selgus, et kõigi vaadeldud juturobotitega kaasneb arvestatav privaatsusrisk, sest kõik ettevõtted kasutavad vestluseid, et mudeleid õpetada, täiustada, parandada nende võimekust ja võita turuosa. Mõni ettevõte annab võimaluse loobuda, teised mitte.

Teadlased hindasid tehisaruettevõtete dokumente California tarbijaprivaatsusseaduse (California Consumer Privacy Act) metoodikaga, sest see on USA-s kõige põhjalikum privaatsusseadus ja kõik vaadeldud arendajad peavad järgima just seda. Analüüsiti dokumentide keelt, et selgitada välja, kas kasutajate sisestusi kasutatakse juturobotite (LLM) koolitamiseks või täiustamiseks; mis isikuandmeid kogutakse, kuidas neid säilitatakse ja töödeldakse; kas kasutaja saab nõustuda või keelduda, et tema vestluseid sel moel kasutatakse. 

Uuringu autori, Stanfordi inimkeskse AI instituudi privaatsuse ja andmekaitse poliitika teaduri Jennifer Kingi sõnutsi võivad kõik vaadeldud kuus tehisaruettevõtted kasutada juturobotite õpetamiseks nendega peetud mistahes vestluseid, sh eraldi failis jagatut. Mõni arendaja säilitas teavet süsteemides määramata aja ehk väga pikka aega, kusjuures vaid mõni väitis, et isikuandmed on anonüümseks tehtud enne, kui nendega tehisaru õpetama asutakse. Seejuures lubab mõni arendaja vestluste transkripte üle vaadata ka inimestel, et tehisaru õpetust parandada. Veel selgus, et mitme tootega ettevõtted, nt Google, Meta, Microsoft ja Amazon, ühendavad kasutajate suhtlust ka muude sama ettevõtte toodetega, mida tarbija kasutab, nt otsingud, müük/ost, sotsiaalmeedia vms. 

Stanfordi ülikooli teadlased uurisid kuue USA tehisaruettevõtte dokumente ja selgus, et kõik võivad tehisaruga peetud vestlustega õpetada oma mudeleid. Foto: donut3771/Envato.

Teadlaste hinnangul on privaatsuspoliitikad väga puudulikud, need on tavaliselt keerukas juriidilises keeles, mida tarbijal on raske lugeda ja mõista. Sellest hoolimata peavad kasutajad nende reeglitega nõustuma, kui soovivad veebisaite külastada, otsimootoreid kasutada ja keelemudelitega suhelda. Peale selle on tehisarude arendajad kogunud avalikust internetist tohutu hulga andmeid, millega mudeleid koolitada. Sedasi on aga andmekogudesse sattunud ka hulgaliselt isikuandmeid.

Eriti tõsiseks peavad Stanfordi ülikooli teadlased olukorda siis, kui kasutaja jagab tehisaruga näiteks isiklikke biomeetrilisi ja terviseandmeid. Autorid tõid näite, et kui küsida juturobotilt õhtusöögi ideid, määrates tingimuseks näiteks madala suhkrusisalduse või sobivuse südamele, võib juturobot sellest järeldada ja algoritm otsustada, et kasutaja sobib terviseprobleemidega isikute rühma. “See otsus mõjutab kogu arendaja ökosüsteemi. Hakkate nägema ravimireklaame ja on lihtne mõista, kuidas see teave võib sattuda kindlustusseltsi kätte. Mõju avaldub aja jooksul,” kirjeldas King.

Teise ohuna avastasid teadlased laste privaatsuse. Enamik ettevõtteid ei rakenda meetmeid, et laste vestlused ei satuks mudeli koolitusandmetesse. Google on teatanud, et kasutab mudelit õpetades vaid nende teismeliste andmeid, kes on sellega nõustunud. Anthropic väidab, et ei kogu laste andmeid ega luba alla 18-aastastel kasutajatel kontosid luua, kuigi ei kontrolli ka vanust. Microsofti sõnutsi kogub ettevõte küll alaealiste andmeid, kuid ei pidavat neid kasutama keelemudelite arenduses. 

Kõigi nende tavade kohta ei ole Stanfordi teadlaste sõnutsi privaatsuspoliitikates piisavat teavet. Nii soovitavad autorid seadustega kohustada ettevõtteid nõudma, et kasutaja peab selge sõnaga nõustuma sellega, et tema andmetega õpetatakse tehisaru. Ühtlasi soovitavad teadlased, et arendajatelt tuleks nõuda isikuandmete vaikimisi filtreerimist. “Ühiskonnana peame kaaluma, kas jutuandmetega tehisaru arendusest saadav potentsiaalne kasu on väärt märkimisväärset tarbijate privaatsuse kaotust. Samuti peame edendama privaatsust säilitavat tehisaru innovatsiooni, et kasutajate privaatsus ei oleks tagantjärele tarkus,” tõdes King. Kasutajatel soovitavad teadlased aga hoolikalt kaaluda, mis teavet tehisaruga vesteldes jagada, ja kui võimalik, mitte lubada kasutada oma andmeid tehisaru koolitamiseks.

0 Kommentaari
Enim hääli saanud
Uuemad Vanemad
Inline Feedbacks
View all comments