ChatGPT, de op kunstmatige intelligentie gebaseerde chatbot van OpenAI, voldoet nog steeds niet aan de normen voor gegevensnauwkeurigheid van de Europese Unie, volgens een nieuw rapport van de privacywaakhond van de EU.
Hoewel het rapport van de Europese Raad voor Gegevensbescherming (EDPB) geen juridisch document is, zal het echter wel een gemeenschappelijke aanpak opleveren voor het reguleren van ChatGPT in de 27 lidstaten van de EU.
ChatGPT voldoet niet aan de gegevensnormen
Nationale waakhonden vormden vorig jaar de ‘ChatGPT task force’ onder impuls van lopende zaken in verschillende Europese landen tegen het AI-model. Als gevolg hiervan publiceerde de taskforce op 24 mei een rapport waarin het de AI-chatbot onder de loep nam. Het gaf het volgende aan in het rapport:
“Hoewel de maatregelen die zijn genomen om aan het transparantiebeginsel te voldoen gunstig zijn om verkeerde interpretatie van de output van ChatGPT te voorkomen, zijn ze niet voldoende om te voldoen aan het gegevensnauwkeurigheidsbeginsel.”
Grote taalmodellen, of LLM’s, zijn berucht vanwege hun ‘hallucinatie’ – technologie wanneer AI-chatbots onwaarheden uiten. Chatbots zoals ChatGPT of Google’s Gemini worden mogelijk gemaakt door LLM’s.
Onder de strenge Europese Algemene Verordening Gegevensbescherming (AVG) kunnen gebruikers een aanklacht indienen omdat ze onwaarheden voorgesteld krijgen over zichzelf of de mogelijkheid wordt ontzegd om onnauwkeurige informatie over zichzelf te corrigeren.
Volgens het rapport van de taskforce “leidt de huidige trainingsaanpak vanwege de probabilistische aard van het (AI)-systeem tot een model dat ook vertekende of verzonnen resultaten kan opleveren.” Het ging verder met:
“De resultaten van ChatGPT zullen waarschijnlijk door eindgebruikers als feitelijk accuraat worden beschouwd, inclusief informatie met betrekking tot individuen, ongeacht hun werkelijke nauwkeurigheid.”
EU hamert op naleving
OpenAI heeft eerder technische complexiteit aangehaald vanwege het onvermogen om desinformatie te corrigeren, maar de toezichthouder van de Europese Unie hamert op naleving. Het gaf het onderstaande aan:
“In het bijzonder kan technische onmogelijkheid niet worden ingeroepen om het niet naleven van deze vereisten te rechtvaardigen.”
In een nieuw geopende zaak klaagt een beroemdheid uit Oostenrijk ChatGPT aan omdat hij zijn geboortedatum niet heeft gecorrigeerd. OpenAI zei dat dit technisch niet haalbaar zou zijn, maar dit nieuwe rapport zal de druk op het AI-model vergroten.
Een Nederlandse gegevensbeschermingsadvocaat verbonden aan de zaak, Maartje de Graaf, zei dat bedrijven er momenteel niet in slagen om AI-chatbots te laten voldoen aan de EU-wetgeving bij het verwerken van gegevens over individuen. Ze gaf het onderstaande aan:
“Als een systeem geen nauwkeurige en transparante resultaten kan produceren, kan het niet worden gebruikt om gegevens over individuen te genereren. De technologie moet aan de wettelijke vereisten voldoen, en niet andersom.”
Er zijn zorgen over de veiligheid bij OpenAI
Experts zeggen dat ChatGPT ambitieuze veranderingen nodig zal hebben om te voorkomen dat het in strijd komt met de AVG, die gegevensbescherming in de Europese Unie reguleert. De regels bieden echter ook een werkmodel voor datawetten in Argentinië, Brazilië, Chili, Japan, Kenia, Mauritius, Zuid-Afrika, Zuid-Korea, Turkije en het Verenigd Koninkrijk.
OpenAI heeft recentelijk ook wat interne problemen gekend. Zo is het onlangs tevens getroffen door een reeks spraakmakende ontslagen, waarbij het vertrek van medeoprichter Ilya Sutskever, Gretchen Krueger, Jan Leike en een zestal anderen pleitte voor een cultuuromslag.
Eerder deze week kondigde OpenAI tevens de opschorting aan van de ChatGPT-stem ‘Sky’ na zorgen dat deze leek op de stem van actrice Scarlett Johansson in de film met een AI-thema ‘Her’.
Het bericht ChatGPT voldoet nog steeds niet aan EU-normen verscheen eerst op CryptoBenelux.