Amerikaans presidentieel besluit over kunstmatige intelligentie vereist veilige, beveiligde en betrouwbare ontwikkeling
De regering-Biden heeft onlangs een presidentieel besluit uitgevaardigd om de veilige, ethische en verantwoorde ontwikkeling van kunstmatige intelligentie (AI) te waarborgen. Het besluit geeft prioriteit aan een gecoördineerde aanpak door de federale overheid en beschrijft principes en richtlijnen om risico’s van onverantwoordelijke AI-systemen te beperken, terwijl tegelijkertijd innovatie wordt ondersteund die grote uitdagingen kan oplossen.
Het Executive Order on Artificial Intelligence is gebaseerd op acht kernprincipes:
- De veiligheid en beveiliging van AI
- Het ondersteunen van verantwoorde concurrentie
- Het ondersteunen van werknemers bij AI-gedreven transities
- Zorgen dat AI niet in strijd is met burgerrechtenbescherming
- Bescherming van consumenten en patiënten
- Prioriteit geven aan privacy en vrijheden
- Beheer van federale AI-risico’s
- Het bevorderen van Amerikaans leiderschap bij het vaststellen van wereldwijde AI-standaarden
Het besluit geeft het National Institute of Standards and Technology (NIST) ook de opdracht om aanvullende richtlijnen te ontwikkelen ter ondersteuning van het huidige AI Risk Management Framework (NIST AI 100-1) en maatregelen te nemen om de veilige en betrouwbare ontwikkeling en het gebruik van AI te waarborgen, wat gevolgen zal hebben voor bedrijven die met AI-technologieën werken.
Bedrijven dienen aandacht te besteden aan dit presidentieel besluit om te voldoen aan de nieuwe standaarden en richtlijnen voor AI-ontwikkeling en -gebruik. Door deze richtlijnen proactief te volgen, zelfs als dit nog niet wettelijk verplicht is, kunnen bedrijven risico’s beperken, vooroordelen aanpakken en vertrouwen opbouwen bij consumenten.
Gezien de steeds bredere integratie en impact van AI bevordert het afstemmen van ontwikkel- en inzetpraktijken op de principes van het besluit rond veiligheid, transparantie en verantwoordelijkheid een verantwoorde innovatie. Het omarmen van opkomende standaarden bereidt bedrijven voor op toekomstige regelgeving en toont hun inzet voor AI-ethiek aan.
Wat is AI-ethiek?
AI-ethiek verwijst naar de principes en richtlijnen die de ontwikkeling en inzet van kunstmatige intelligentiesystemen sturen om te waarborgen dat ze veilig, beveiligd en betrouwbaar zijn. Het recente Executive Order on AI onderstreept het belang van deze ethiek door naleving van kaders zoals het AI Risk Management Framework en NIST CSF, opgesteld door het National Institute of Standards and Technology, verplicht te stellen.
De regering-Biden legt een sterke nadruk op ethische AI om vooroordelen te voorkomen en transparantie te waarborgen, waarbij instellingen zoals de AI Safety and Security Board en de White House AI Council een centrale rol spelen in het toezicht. Bedrijven als Kiteworks, Armis en Protect.AI zijn actief betrokken bij het naleven van deze ethische standaarden en bieden essentiële ondersteuning om intellectueel eigendom en gevoelige gegevens te beschermen. Door AI-ethiek te integreren in hun ontwikkelprocessen kunnen organisaties technologie op verantwoorde wijze vooruithelpen, het vertrouwen van het publiek versterken en voldoen aan nationale veiligheidsverplichtingen.
Ethische uitdagingen door AI
De ethische uitdagingen die AI met zich meebrengt, zoals beschreven in het Executive Order on AI, zijn omvangrijk en benadrukken de noodzaak van verantwoorde innovatie te midden van versnellende technologische veranderingen. De regering-Biden geeft prioriteit aan ethische AI-ontwikkeling door principes als transparantie, verantwoordelijkheid en inclusiviteit te integreren in het AI Risk Management Framework, opgesteld in samenwerking met het National Institute of Standards and Technology (NIST). De oprichting van instanties zoals de AI Safety and Security Board en de White House AI Council onderstreept de inzet om ethische uitdagingen direct aan te pakken, zodat AI-technologieën vertrouwen bevorderen en geen maatschappelijke vooroordelen of kwetsbaarheden versterken.
Hoe bedrijven meer ethische AI kunnen creëren
Om meer ethische AI te ontwikkelen, moeten bedrijven hun ontwikkelprocessen afstemmen op de richtlijnen uit het Executive Order on AI van de regering-Biden. Dit houdt in dat ze robuuste AI Risk Management Frameworks implementeren, zoals aanbevolen door het National Institute of Standards and Technology (NIST). Door het NIST Cybersecurity Framework (CSF) te volgen, kunnen bedrijven standaarden vaststellen die niet alleen gegevens beschermen, maar ook de integriteit en transparantie van AI-systemen waarborgen.
De oprichting van de AI Safety and Security Board, samen met de White House AI Council, benadrukt de noodzaak van continu toezicht om ethische AI-inzet te garanderen. Betrokkenheid vanuit het bedrijfsleven is cruciaal. Organisaties moeten geavanceerde oplossingen bieden om risico’s in AI-ontwikkeling te bestrijden. Deze maatregelen bevorderen een samenwerkingsklimaat waarin AI-technologieën zich op verantwoorde wijze ontwikkelen, met een balans tussen innovatie, ethische verplichtingen en maatschappelijk vertrouwen.
Implementatie van het besluit
Het besluit introduceert een overheidsbrede aanpak, waarbij specifieke acties worden opgelegd aan federale agentschappen en departementen, en nieuwe coördinerende organen worden opgericht.
Een van de belangrijkste stappen is de publicatie van een AI Bill of Rights, die richtlijnen voor AI-veiligheid biedt. Het besluit richt zich ook op het bevorderen van nieuwe publiek-private onderzoeks-samenwerkingen en leerwerktrajecten om AI-talent te ontwikkelen. Daarnaast stelt het besluit anti-discriminatievereisten voor AI-systemen die door federale en staatsprogramma’s worden gebruikt. Tot slot worden de ontwikkeling van privacybevorderende technologieën en het labelen van AI-gegenereerde inhoud benadrukt als belangrijke voorwaarden voor betrouwbare AI-adoptie.
Wat is de AI Bill of Rights?
De AI Bill of Rights is een essentieel onderdeel van het Executive Order on AI, geïntroduceerd door de regering-Biden om de veilige, beveiligde en betrouwbare ontwikkeling van kunstmatige intelligentietechnologieën te bevorderen.
Centraal in dit initiatief staat het opstellen van richtlijnen die transparantie, verantwoordelijkheid en gegevensbescherming prioriteren, zodat AI-systemen ethisch en zonder vooroordelen functioneren. Door samen te werken met organisaties zoals het National Institute of Standards and Technology (NIST) en gebruik te maken van inzichten uit het AI Risk Management Framework, streeft het initiatief naar een gestandaardiseerde aanpak voor het beheersen van AI-risico’s.
Bedrijven spelen hierin een cruciale rol door oplossingen te bieden ter bescherming van intellectueel eigendom en gevoelige informatie. Door samen te werken met de AI Safety and Security Board, de White House AI Council en technologische innovaties uit de private sector, wil de AI Bill of Rights diverse uitdagingen aanpakken en tegelijkertijd de groei van een veerkrachtig AI-ecosysteem ondersteunen.
Is de AI Bill of Rights afdwingbaar?
De afdwingbaarheid van de AI Bill of Rights, als onderdeel van het bredere Executive Order on AI van de regering-Biden, omvat de integratie en consequente toepassing van gevestigde kaders zoals het AI Risk Management Framework, ontwikkeld door het National Institute of Standards and Technology (NIST).
Hoewel het Executive Order ambitieuze doelen stelt voor het verbeteren van AI-veiligheid en -beveiliging, is de praktische handhaving grotendeels afhankelijk van toezichthoudende instanties zoals de AI Safety and Security Board en de White House AI Council, die naleving afdwingen en toezicht houden binnen de sector. Technologiebedrijven kunnen bijdragen door robuuste beveiligingsmaatregelen te implementeren en gevoelige gegevens te beschermen in lijn met de doelstellingen van het Executive Order.
De samenwerking tussen overheidsinstanties en technologiebedrijven is essentieel om ervoor te zorgen dat AI-toepassingen voldoen aan de veiligheids- en ethische standaarden die nodig zijn om publieke belangen te beschermen. Naarmate AI-technologieën zich snel ontwikkelen, zal de effectiviteit en afdwingbaarheid van deze richtlijnen afhangen van een dynamische synergie tussen innovatie en regelgeving, waardoor een omgeving ontstaat waarin veiligheid en vertrouwen centraal staan.
Komen er in de toekomst AI-wetten?
Nu kunstmatige intelligentie zich blijft ontwikkelen, wordt de kans op toekomstige AI-wetgeving steeds groter. Het Executive Order on AI van de regering-Biden onderstreept de urgentie van het opstellen van robuuste regelgeving om AI-risico’s en ethische vraagstukken te beheersen.
Door te pleiten voor een AI Risk Management Framework dat aansluit bij de richtlijnen van het National Institute of Standards and Technology (NIST) en het NIST Cybersecurity Framework (NIST CSF), wil het besluit de ontwikkeling van AI beschermen. De White House AI Council en de AI Safety and Security Board spelen hierin een centrale rol en zorgen ervoor dat AI-systemen veilig en ethisch worden ingezet.
Technologiebedrijven leveren een belangrijke bijdrage door gevoelige gegevens en intellectueel eigendom te beschermen, terwijl anderen transparantie en veiligheid in AI-toepassingen vergroten. Het gezamenlijke optreden van deze partijen, ondersteund door het Executive Order, vormt de basis voor toekomstige AI-wetgeving die veiligheid, beveiliging en ethische standaarden vooropstelt.
Gelijkheidsbeoordelingen en risicobeheer
Het presidentieel besluit geeft federale agentschappen expliciet de opdracht om gelijkheidsbeoordelingen, risicobeheerpraktijken en continue monitoring te integreren in alle overheidsgebruik van AI die de rechten van Amerikanen raakt. Dit omvat maatregelen zoals het uitvoeren van tests op algoritmische discriminatie, het uitvoeren van uitgebreide cybersecurity-audits, externe red-team kwetsbaarheidsbeoordelingen en het invoeren van watermerkvereisten voor AI-uitvoer. Ook krijgen burgerrechtenautoriteiten de bevoegdheid om oneerlijke vooroordelen of ongelijkheden die door geautomatiseerde systemen worden geïntroduceerd, aan te pakken.
AI Safety and Security Board
Het besluit richt een speciale AI Safety and Security Board op, die adviseert over het beheersen van risico’s van AI-integratie in vitale sectoren zoals financiën, zorgprocessen, transport en onderwijs, waar aanzienlijke publieke impact mogelijk is.
Het besluit benadrukt ook het belang van het ondersteunen van Amerikaans technologisch leiderschap en samenwerking met internationale bondgenoten bij het vaststellen van wereldwijde AI-standaarden. Het bevordert consensusprincipes en biedt technische ondersteuning aan landen die AI toepassen in kritieke infrastructuur en opkomende sectoren.
White House AI Council
Voor de uitvoering is een White House AI Council opgericht, onder leiding van de Deputy Chief of Staff. Deze raad bestaat uit kabinetsleden van alle grote federale departementen en onafhankelijke agentschappen.
De raad is verantwoordelijk voor het coördineren van AI-beleid en het sturen van de integratie van veilige AI-adoptie binnen diverse overheidsfuncties. Al met al biedt het besluit een uitgebreid plan om zowel Amerika’s innovatieve voorsprong in kunstmatige intelligentie te versterken als de publieke waarborgen te creëren die nodig zijn om verantwoord te profiteren van deze transformatie.
Innovatieve leiders in cybersecurity tonen hun steun
Kiteworks en andere innovatieve leiders in AI-beveiliging, waaronder OpenPolicy, Armis, Cranium.AI, Axonius, HiddenLayer, Protect.AI, Astrix Security en Cybeats, hebben onlangs een gezamenlijke verklaring afgelegd over het Executive Order:
Het Executive Order is een welkome en noodzakelijke stap vooruit om zowel de vertrouwde inzet van AI te waarborgen als het concurrentievermogen en leiderschap van de VS in AI-ontwikkeling te versterken. Het ondersteunen van de vertrouwde inzet en ontwikkeling van AI betekent het ondersteunen van de ontwikkeling van geavanceerde innovatieve oplossingen die nodig zijn om overheid, industrie en samenleving te beschermen tegen opkomende AI-bedreigingen. De ondertekenaars zijn innovatieve bedrijven van alle groottes die vooroplopen bij het ontwikkelen van toonaangevende beveiligings-, veiligheids-, betrouwbare AI- en privacyoplossingen. Wij geloven dat het Executive Order van de regering-Biden-Harris een solide kader biedt om de opkomende beveiligings- en veiligheidsbedreigingen van AI aan te pakken en ervoor te zorgen dat AI op een veilige, beveiligde en betrouwbare manier wordt ontwikkeld en gebruikt.
Als marktleider in content governance is Kiteworks bij uitstek gepositioneerd om het Executive Order on AI te ondersteunen.
Kiteworks biedt robuuste controles over gevoelige content, waardoor ongeautoriseerde toegang of gebruik dat kan leiden tot datalekken of bevooroordeelde AI-trainingssets wordt voorkomen. Specifiek stelt Kiteworks in staat om granulaire beleidsregels in te stellen die de integriteit van content beschermen, toegang goedkeuren en het gebruik stroomafwaarts controleren. Deze mogelijkheden sluiten direct aan bij de doelstellingen van het besluit op het gebied van privacybescherming en verantwoorde AI-adoptie. Kiteworks pleit ook voor beveiligingskaders zoals het NIST CSF, die de inspanningen van de overheid voor gestandaardiseerde beoordelingen aanvullen.
De expertise van Kiteworks in het beveiligen van gevoelige content tegen misbruik sluit naadloos aan bij en maakt het mogelijk om de visie van het besluit op betrouwbare AI-vooruitgang te realiseren door middel van zorgvuldig contentbeheer.
Vertrouwen opbouwen in AI door verstandige vooruitgang
Het Executive Order on AI van president Biden is een cruciale stap in het sturen van de verantwoorde ontwikkeling van deze transformerende technologieën. Naarmate AI-systemen steeds gangbaarder worden, brengen ze nieuwe risico’s met zich mee die gecoördineerde inspanningen vereisen om vooroordelen, privacy-incidenten en aanvallen te beperken.
Dit besluit introduceert een strategie die is geïnformeerd door sectorexperts zoals Kiteworks en andere leiders, om AI-veiligheid te versterken via voortdurende beoordelingen, audits en implementatie van standaarden. Het heeft ook als doel de belofte van AI te versnellen door zorgprocessen te personaliseren, veiliger transport en aantrekkelijker onderwijs te creëren, evenals een hogere prioriteit te geven aan transparantie, verantwoordelijkheid en eerlijke toegang, terwijl innovatie in balans wordt gebracht. Dit besluit werkt aan het beheersen van risico’s om breed vertrouwen op te bouwen en snellere vooruitgang van veilige AI mogelijk te maken.
Nu AI-integratie in diverse sectoren versnelt, biedt Kiteworks een robuuste oplossing voor organisaties om te zorgen voor naleving van regelgeving en het beperken van opkomende contentrisico’s. Zo maakt Kiteworks robuust beheer mogelijk van gevoelige gegevens die worden gebruikt om AI-systemen te trainen, waarmee direct wordt ingespeeld op de kernpunten van het NIST AI Risk Management Framework.
Door granulaire beleidsregels toe te passen voor toegang, gebruik en zichtbaarheid van gevoelige content, helpt Kiteworks organisaties risico’s rond datalekken, vooroordelen en ongeautoriseerde blootstelling die door AI kunnen ontstaan, te beperken.
Kiteworks maakt aantoonbare naleving mogelijk van de voorgeschreven praktijken van het framework voor continue monitoring, het evalueren van algoritmische eerlijkheid en het behouden van gegevensintegriteit. Voor elke organisatie die AI inzet, biedt Kiteworks een schaalbare route naar verantwoord toezicht op trainingsdata en het benutten van innovatiekansen.
Of het nu gaat om bestaande regelgeving of nieuwe veiligheidsrichtlijnen, de expertise van Kiteworks in het beveiligen van gevoelige content tegen misbruik biedt een betrouwbare route naar de visie van het presidentieel besluit op betrouwbare en eerlijke AI-vooruitgang. De bescherming van het platform stelt organisaties in staat het volledige potentieel van AI te benutten via een robuuste data governance-aanpak die aansluit bij opkomende beste practices.
Wilt u meer weten over hoe Kiteworks uw organisatie kan beschermen tegen de risico’s van kunstmatige intelligentie? Plan vandaag nog een aangepaste demo.