Szakértők arra hívják fel a figyelmet, hogy ne osszuk meg orvosi leleteinket chatbotokkal.


Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.

Az xAI vezérigazgatójaként is tisztelt Elon Musk október végén jelentette be, hogy a cég Grok chatbotjának funkcióit kibővítették a képes tartalom feldolgozásával, amit az X közösségi platfrom előfizetői ki is próbálhatnak, ha képeket töltenek fel és kérdéseket tesznek fel róluk a mesterséges intelligenciának. Akinél ebből nem következik semmi, az nem véletlenül nem ül Musk helyén, az xAI vezetője ugyanis egyből elkezdte arra biztatni a felhasználókat, hogy küldjék be az orvosi képalkotó eljárásokkal (röntgen, PET, MRI stb.) leleteiket a Groknak elemzésre. A modell ilyen irányú képességéről azt írta, hogy még korai szakaszában van, de már így is elég pontos, később pedig még annál is jobb lesz.

Musk felhívta az emberek figyelmét, hogy osszák meg tapasztalataikat az xAI modelljével kapcsolatban, jelezve, hogy hol teljesített jól, és miben hibázott. A hírek szerint sokan éltek ezzel a lehetőséggel, és annak ellenére, hogy a helyzet adatvédelmi szempontból aggasztó, számos felhasználó megosztotta tapasztalatait, sőt egyesek nyilvánosan is közzétették eredményeiket. A szakértők, ahogy várható volt, aggodalmukat fejezték ki, hiszen a chatbotok biztonsági rései és Musk vállalatainak átláthatósági problémái miatt ez nem tűnik a legjobb döntésnek. A Vanderbilt Egyetem orvosbiológiai informatikai professzora a The New York Timesban figyelmeztetett, hogy a megosztott információk rendkívül érzékenyek, és kérdéses, hogy a Grok hogyan fog bánni ezekkel az adatokkal.

Amit hisznek, azt valószínűleg tévesen értelmezik.

Azok a felhasználók, akik megosztják egészségügyi adataikat Musk chatbotjával, jó eséllyel azt gondolják, hogy ebben az esetben is védik őket azok a szövetségi törvények, amelyek például az orvosokat is korlátozzák az ilyen információ továbbadásában. A NYT riportjából azonban kiderül, hogy nem ez a helyzet: ha valaki saját maga hozza nyilvánosságra az adatait egy közösségi oldalon, akkor nincs miről beszélni, és ebben az esetben olyan megállapodások sem érvényesek, amelyeket a technológiai cégek az egészségügyi szolgáltatókkal szoktak kötni az információ tárolásáról és használatról. A Groknál viszont csak remélhetik, hogy az xAI tényleg úgy működik, ahogy ők szeretnék.

Másik lényeges szempont, hogy a pontatlan válaszok a betegeket is veszélybe sodorhatják: mint kiderült, az MI-chatbot rosszul azonosított többek között egy kulcscsonttörést, az Elon Musk bejegyzésére reagáló orvosok szerint nem ismerte fel a tuberkulózis "tankönyvi esetét", vagy éppen összetévesztett egy jóindulatú cisztát egy herével. A lényeg nyilván az xAI nagy nyelvi modelljének finomhangolása az így begyűjtött adatok segítségével, de ez nem jelenti, hogy a felhasználókat nem kell tájékoztatni a mesterséges intelligencia hallucinációra való hajlamáról vagy arról a kockázatról, amit az érzékeny személyes adatok külső szereplők általi kibányászhatósága jelent az ilyen rendszerekből.

Az xAI, Elon Musk vállalata, saját definíciója szerint nem törekszik érzékeny személyes adatok gyűjtésére, azonban Musk nyilatkozatai ezzel ellentmondásban állnak. A New York Times figyelmeztet arra, hogy az X és az xAI adatvédelmi irányelvei azt állítják, hogy a felhasználói adatokat nem értékesíthetik harmadik feleknek, viszont "kapcsolódó cégeknek" valóban átadhatják azokat. A szakértők egyetértenek abban, hogy Musk cégei bizonyos korlátozásokat bevezethetnek a Grokkal megosztott egészségügyi információk védelme érdekében, de ez nem jelenti azt, hogy a nyilvánossággal ne oszthatnák meg ezeket az adatokat. Ezen a ponton sok egyéni felhasználó nem érzi magát biztonságban, és másoknak sem ajánlják, hogy a személyes orvosi leleteikkel táplálják az xAI mesterséges intelligenciáját.

Related posts