China heeft zojuist baanbrekende veiligheidsrichtlijnen onthuld die van toepassing zijn op bedrijven die generatieve kunstmatige intelligentie (AI) diensten aanbieden.
Deze nieuwe voorschriften omvatten strikte beperkingen met betrekking tot de bronnen van gegevens die worden ingezet voor het trainen van AI-modellen.
Voorgestelde voorschriften zijn onthuld
Op woensdag 11 oktober werden de voorgestelde voorschriften onthuld door het National Information Security Standardization Committee. Dit comité bestaat uit vertegenwoordigers van belangrijke entiteiten, waaronder de Cyberspace Administration of China (CAC), het ministerie van Industrie en Informatietechnologie, en relevante wetshandhavingsinstanties.
Deze regelgeving komt op een moment dat generatieve kunstmatige intelligentie, zoals geïllustreerd door de indrukwekkende prestaties van de ChatGPT-chatbot van OpenAI, steeds meer in staat is om complexe taken uit te voeren. Dit gebeurt door historische gegevens te analyseren en nieuwe inhoud, zoals tekst en afbeeldingen, te genereren op basis van deze trainingsgegevens.
Uitvoeren van veiligheidsevaluatie
De commissie beveelt aan om een veiligheidsevaluatie uit te voeren op de inhoud die wordt gebruikt voor de training van publiek toegankelijke generatieve AI-modellen. Inhoud die meer dan “5% aan onwettige en schadelijke informatie” bevat, zal op een zwarte lijst worden geplaatst. Deze categorie omvat informatie waarin terrorisme, geweld, ondermijning van het socialistische systeem, schade aan de nationale reputatie en handelingen die de nationale samenhang en maatschappelijke stabiliteit bedreigen, worden bevorderd.
Daarnaast benadrukken de ontwerpverordeningen dat gegevens die onderworpen zijn aan censuur op het Chinese internet niet mogen dienen als trainingsmateriaal voor deze modellen. Deze ontwikkeling komt iets meer dan een maand nadat toezichthouders goedkeuring hadden verleend aan verschillende toonaangevende Chinese technologiebedrijven, waaronder het vooraanstaande zoekmachinebedrijf Baidu, om hun generatieve AI-gestuurde chatbots aan het grote publiek te introduceren.
Sinds april heeft de Cyberspace Administration of China (CAC) consequent benadrukt dat bedrijven verplicht zijn om veiligheidsevaluaties te overleggen aan regelgevende instanties voordat ze generatieve AI-gedreven diensten aan het publiek introduceren.
Richtlijnen minder belastend dan eerder voorgesteld
In juli publiceerde de toezichthouder op het gebied van cyberspace een reeks richtlijnen voor deze diensten, waarbij sectoranalisten opmerkten dat deze aanzienlijk minder belastend waren in vergelijking met de oorspronkelijke maatregelen die in het april-voorstel waren voorgesteld.
De recentelijk onthulde concept-beveiligingsbepalingen leggen organisaties die betrokken zijn bij het trainen van deze AI-modellen de verplichting op om expliciete toestemming te verkrijgen van personen wiens persoonlijke gegevens, waaronder biometrische informatie, worden gebruikt voor de training. Bovendien bevatten de richtlijnen uitgebreide instructies over het voorkomen van inbreuken op intellectueel eigendom.
In de gehele wereld worstelen landen met de uitdaging om regelgevende kaders voor deze technologie op te zetten. China beschouwt AI als een terrein waarop het de concurrentie wil aangaan met de Verenigde Staten en streeft naar de ambitie om tegen 2030 wereldleider te worden op dit gebied.
Het bericht China stelt strengere regels voor het trainen van generatieve AI-modellen verscheen eerst op Newsbit.