Kunstmatige intelligentie

Kunstmatige intelligentie
Een door DALL·E 3 gegenereerd "zelfportret"
Een door DALL·E 3 gegenereerd "zelfportret"
Algemene informatie
Grondlegger(s) Alan Turing (Theorie), John McCarthy (Turing award), John Hopfield en Geoffrey Hinton (Nobelprijs)
Periode van uitvinding 1936-1980
Hoofdfunctie uitvoeren van taken die normaal gesproken menselijke intelligentie vereisen
Basisprincipe(s) Turingtest (1936-1950), Datawetenschap (1956), Hopfield-netwerk (1980)
Portaal  Portaalicoon   Wetenschap & Technologie
Hoe kunnen computers je anders laten denken? - Universiteit van Nederland
Een vergelijkbare Deep Blue-computer won in 1997 van Kasparov.

Kunstmatige intelligentie (KI) of artificiële intelligentie (AI) is het nabootsen van menselijke vaardigheden met een computersysteem, zoals: het aanleren, redeneren, anticiperen en plannen om zichzelf automatisch bij te sturen. Het wordt door een team van software engineers ontworpen, geconfigureerd en getest tot het zelfstandig kan beslissen zonder tussenkomst van menselijke intelligentie.[1][2]

Artificiële intelligentie wordt geoptimaliseerd met meerdere technieken, zoals machinelearning en besluitvormingen. Voor de ontwikkeling van een AI-systeem zijn de volgende technische aspecten essentieel:[3]

Het ontwikkelde, en vereenvoudigde, gegevensmodel kan bijvoorbeeld geïntegreerd worden in een toestel, om patronen razendsnel en nauwkeurig te herkennen.[3] Een voorbeeld is de nieuwe AI-app, die aan de hand van een scan pijn kan herkennen bij katten. De app werd ontwikkeld door professor Kazuya Edamura en de Nihon Universiteit in Japan. De AI werd eerst getraind met 6.000 foto's van katten.[4]

Een AI-systeem met één onderwerp wordt een kleine AI genoemd en kan geïntegreerd worden in een app of smartphone. Dit heeft een laag energieverbruik. Een AI-chatbot behoort tot een grote AI en heeft een hoog energieverbruik, omdat het zich richt op algemene onderwerpen via een supercomputer.[5]

De vooruitgang en streefdoelen van artificiële intelligentie is algemeen aangenomen in vier fases:

Type Afkorting Beschrijving[3][6][7] Gerealiseerd
Smalle of zwakke AI ANI Deze fase verwijst naar de mogelijkheid van een computersysteem om specifieke taken beter uit te voeren dan een mens. De afkorting ANI verwijst naar de Engelstalige benaming Artificial Narrow Intelligence. Een smalle AI richt zich enkel op een taak met een onderwerp.[5]
Generatieve AI GenAI Een nieuwe fase kwam tot stand om de kloof tussen ANI en AGI te dichten. Deze fase kan nieuwe content creëren zoals foto's, muziek en teksten van uiteenlopende onderwerpen wat nog niet bestaat.[5] Dit niveau is de hoogste succesvolle AI-ontwikkeling tot nu toe.
Generale of sterke AI AGI Deze fase biedt de capaciteit om elke intellectuele taak beter uit te voeren dan de mens. Deze vorm van AI komt vooral voor in films en is momenteel sciencefiction. Hiermee zou een computersysteem minstens hetzelfde oordeel kunnen vellen als het menselijk brein. Dit is het nieuwe streefdoel.
X
Super AI ASI De laatste fase, een superintelligent computersysteem is in staat de mens op vrijwel elk vlak te verslaan, met inbegrip van wetenschappelijke creativiteit, algemene kennis en sociale vaardigheden.
X

Beknopte tijdlijn

[bewerken | brontekst bewerken]

Sinds de publicatie in 1950 van "Computing Machinery and Intelligence" door Alan Turing, groeide de interesse fors om een intelligente machine te bouwen. Turing suggereerde dat mensen bestaande data gebruiken, analyseren, en met deze informatie beslissingen concluderen.[8] De huidige AI is ook gericht op hoe computers beslissingen kunnen nemen op basis van bestaande gegevens.[3]

Eerste stappen

[bewerken | brontekst bewerken]

De technologische middelen voor het realiseren van artificiële intelligentie waren in het begin vrij beperkt. Hierdoor draaiden de doelstellingen van AI minder ambitieus uit dan aanvankelijk gedacht. Zo vertelde Marvin Minsky in 1970 aan Life Magazine, "dat hij en zijn team binnen 8 jaar een machine met intelligentie van een gemiddelde mens hebben gebouwd". Maar een doorbraak kwam er niet vanwege de beperkte rekenkracht en opslagcapaciteit.[8]

Door een technologische verbetering van de rekenkracht kwam er in de jaren 90 een opleving via patroonvergelijkingen en besluitvormingsprogramma's. Twee voorbeelden zijn ELIZA, en IBM’s computerprogramma Deep Blue, dat in 1997 de grootmeester schaken Gary Kasparov versloeg. Anno 2000 werden de meeste doelen van AI bereikt, waarna de ontwikkeling een tiental jaar werd afgezwakt. Dit had grotendeels te maken met beperkte groei van opslagcapaciteit en in mindere mate door gebrek aan financiering.[8]

De doorbraak van rekenkracht en de groei van opslagmogelijkheden betekende later ook de doorbraak van smalle AI, zoals gezicht herkennen in een ruimte met meerdere objecten, zonder dat de gezichten op voorhand bekend zijn in het systeem of een enkel onderwerp dat getraind wordt om nieuwe informatie te bekomen.

Geheugencapaciteit

[bewerken | brontekst bewerken]

De wet van Moore speelt een belangrijke rol in de moderne artificiële intelligentie. De algoritmen zijn niet zozeer spectaculair verbeterd ten opzichte van de jaren 1990, maar de geheugencapaciteit van de huidige computers wel. Plots kon big data verzameld en opgeslagen worden om te analyseren en te classificeren, zodat computers konden leren van menselijke logica en hieruit nieuwe content creëren.[8] Met deze belangrijke doorbraak kan Generatieve AI bijvoorbeeld miljoenen regels DNA-data analyseren en vanuit het niets nieuwe eiwitten genereren of unieke slogans bedenken voor bedrijven.[7]

Het ontwikkelingsproces voor de huidige AI bestaat uit een vijftal stappen:[9]

In de media verschijnen sinds 2024 volop interne technieken, per bedrijf, die ingezet zullen worden om pogingen te ondernemen naar de volgende fase van AI, namelijk de kunstmatige algemene intelligentie met een zogenaamde AI-agent als tussenstap. De AI-agent zou een gevorderde generatieve AI moeten worden dat zelfstandig veelvuldige taken kan uitvoeren zoals een betaalbaar hotel selecteren, een reservatie maken en meteen online de goedkoopste treintickets aanschaffen. Het is een race tegen de tijd tussen verschillende AI-bedrijven om dat als eerste te realiseren. Elk bedrijf hanteert eigen methodes die resulteren in dezelfde uitkomst. Het succes ervan en de mogelijkheden is nog toekomstmuziek, maar volgens Sam Altman, de CEO van OpenAI, zal het met zijn bedrijf mogelijks tegen 2026 zijn.[10]

Om de menselijke kennis te digitaliseren voor computerbeslissingen worden technieken gebruikt zoals machinelearning en deep learning. Deze vorm valt onder cognitieve AI en is een onmisbaar onderdeel in de huidige artificiële intelligentie.[11] Er bestaan ook nog andere technieken zoals datawetenschappen.[3]

Datawetenschap

[bewerken | brontekst bewerken]

Datawetenschap maakt gebruik van wiskunde en statistieken zoals metingen van afstanden van ogen, neus, lippen om een persoon te analyseren en te vergelijken met een AI-model met relevante datapunten. Vroeger was wiskunde de AI bij uitstek maar deze techniek is tegenwoordig enkel een onderdeel van AI.

Machinelearning

[bewerken | brontekst bewerken]
Zie Machinaal leren voor het hoofdartikel over dit onderwerp.

Een computersysteem wordt getraind met subsets van bestaande gegevens die het onderwerp analyseert en inzichten verwerft voor het herkennen van patronen om hieruit nieuwe en samengevatte informatie te concluderen. Dit proces wordt in de praktijk datamining genoemd en kan ongestructureerde gegevens filteren om relevante datapunten te ontcijferen.

Robotica is een AI-software met fysieke uiterlijke kenmerken die zich via sensoren autonoom kan verplaatsen zonder instructies van een mens. De sensoren meten en screenen constant de omgeving. Belangrijk om te weten is dat niet elke robot met AI is uitgerust. Bijvoorbeeld een robotarm in een autofabriek is enkel geprogrammeerd voor een specifiek doel.

Generatieve AI

[bewerken | brontekst bewerken]

Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd. Hierbij stelden Katherine Elkins en Jon Chun zich de vraag of ChatGPT de turingtest zou doorstaan. Na onderzoek bleek dat GPT-3 met zijn huidige technologie nog niet de fase van generale AI heeft bereikt,[12] maar wel het punt van generatieve kunstmatige intelligentie.[13]

Deep learning

[bewerken | brontekst bewerken]

Deze techniek is een simulatie van biologische neurale netwerken via geavanceerde machinelearning. Deep learning (geavanceerde machinelearning) verbindt ook geneste neurale knooppunten en is geïnspireerd op het structuur van de hersenen via het Hopfield-netwerk, bekroond in 2024 met een Nobelprijs.[14] Dit leidt tot een reeks gerelateerde vragen voor elke vraag die beantwoord wordt. Sommige ontwikkelde AI-systemen kunnen zichzelf via terugkoppeling bijsturen.[3]

Poging tot generale AI

[bewerken | brontekst bewerken]

Het bedrijf OpenAI heeft in 2024 een nieuw intern ontwikkelingsplanning voorgesteld om in vijf stappen de overgang te maken van generatieve AI naar kunstmatige algemene intelligentie. Het verloopt in vijf fases, waarvan al twee zijn gerealiseerd:[10]

  • Fase 1: chatbots zijn in staat te converseren in natuurlijke taal.
  • Fase 2: redenerende AI-systemen die problemen kunnen oplossen van wiskundige en wetenschappelijke vraagstukken.
  • Fase 3: de AI-agents zouden enkele dagen na elkaar zonder toezicht zelfstandig taken moeten kunnen uitvoeren.
  • Fase 4: AI moet in staat zijn nieuwe ideeën te ontwikkelen die de menselijke kennis betekenisvol uitbreiden.
  • Fase 5: de bereikte kunstmatige algemene intelligentie (AGI) die volledig onafhankelijk het werk van een volledige organisatie kan overnemen.

Machine-learning-algoritmen

[bewerken | brontekst bewerken]

Om AI te trainen wordt een AI-leermodel gebruikt om (big) data te verwerken en te analyseren. Een algoritme behoort tot de basiselementen die nodig zijn om een AI-systeem te trainen en te hertrainen. Een algoritme kent geen vermoeidheid en doet precies waarvoor het is geprogrammeerd als er geen bugs aanwezig zijn. Het verwerkt snel grote hoeveelheden data tot een geoptimaliseerd taalmodel of gegevensmodel. Voorbeelden van eindproducten zijn patroonherkenning in smartphones, het stellen van diagnoses van ziektebeelden, zelfrijdende auto's en zoekbots.[1][2]

Een machine-learning-algoritme[15] bevat vijf leermodellen die vervolgens gecombineerd kunnen worden naargelang het beogende doel:[9]

  • Gecontroleerd leren: een antwoordsleutel wordt op voorhand bepaald om hiermee telkens te vergelijken.
  • Ongecontroleerd leren: er is geen antwoordsleutel beschikbaar maar analyseert en zoekt zelf relevante patronen.
  • Half gecontroleerd leren: een combinatie van gecontroleerd en ongecontroleerd leren.
  • Zelfcontrolerend leren: simuleert het neurale netwerk en voorspelt uit ongestructureerde gegevens de ontbrekende puzzelstukjes.
  • Versterkt leren: gebaseerd op datawetenschap en beloningssysteem.

AI-Technologieën

[bewerken | brontekst bewerken]

AI is al een groot deel van onze samenleving geworden met technieken om het ons gemakkelijker te maken. Maar AI wordt ook ingezet bij niet-alledaagse zaken of niet voor de hand liggende onderwerpen. AI kent geen grenzen op dit vlak en kan met allerlei andere technieken gecombineerd en geïntegreerd worden.

Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Datawetenschap is vaak gerelateerd aan AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.

Semantisch zoeken

[bewerken | brontekst bewerken]

Google maakt voor het zoekalgoritme steeds meer gebruik van AI-technologie zoals Hummingbird en RankBrain. Dit implementeert onder andere semantisch zoeken en zorgt ervoor dat een zoekopdracht direct het antwoord geeft in de resultaten. Bijvoorbeeld zoek: "Wat is de hoofdstad van Nederland?" Dan zal het eerste resultaat "Amsterdam" zijn. Ook in andere facetten zoals online marketing wordt artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.[16]

Computerspellen

[bewerken | brontekst bewerken]

Reeds vanaf de jaren 50 is AI een onderdeel geworden van spelcomputers. In de jaren 80 werd AI ook bij videospellen betrokken om bij de non-player characters responsief en adaptief gedrag te genereren, behalve bij casinospellen, die op willekeurige modellen gebaseerd zijn. Door de jaren heen kreeg AI ook systematisch meerdere rollen toegekend zoals ontwerp, ontwikkeling en fysieke waarnemingen. Vandaag de dag wordt AI ook ingezet als creativiteit tijdens het ontwikkelen van games. Zo is het mogelijk via machinelearning eerst slimme tools te trainen die in de plaats van de mens creatief kunnen zijn. Een voorbeeld is het opvullen en bemeubelen van ruimtes.[17]

Een beknopte tijdlijn:

  • In de jaren 50 zijn er tal van wiskundige strategische spellen geschreven zoals Nim, Ferranti Mark 1-machine en schaakspellen.
  • In de jaren 70 is het spel Space Invaders enorm populair geworden door steeds moeilijkere levels en verschillende bewegingspatronen te ervaren naargelang het spel vordert.
  • In 1980 werd Pac-Man met AI-patronen voor een doolhof uitgebracht.
  • In 1988 was het actierollenspel (RPG) First Queen de eerste RPG met personages die kon bestuurd worden door een AI-engine.
  • In de jaren 90 namen computers ook voor het eerst realtime-beslissingen tijdens het gamen.
  • Vandaag de dag zijn 3D-brillen een ware hype in games geworden, waarbij de gamers de effecten zelf kunnen waarnemen tijdens het gamen.

AI detecteren

[bewerken | brontekst bewerken]

Er bestaan reeds apps en programma's die teksten en afbeeldingen door AI-systemen gemaakt kunnen detecteren. Een gratis computerprogramma "DeepFake-o-meter" is een voorbeeld hiervan. AI-content met mensen hebben nog steeds mankementen zoals onnatuurlijke handen, zes vingers, alle vingers even lang, rare houdingen of vreemde schaduwvormen midden in het oog.[18]

Dat echte- en AI-foto's moeilijk te onderscheiden zijn, bewees fotograaf Miles Astray met zijn flamingo op een wit strand. Hij won de People's Vote Award in de AI-categorie van de "fotowedstrijd 1839 Awards". Hij werd echter gediskwalificeerd omdat hij een echte foto had ingestuurd. Achteraf zei hij: "Ik ben blij om te zien dat dit experiment mijn hypothese heeft bevestigd: er is niets meer fantastisch of creatief dan Moeder Natuur zelf". Hiermee wou hij iedereen laten herinneren dat mensen ook nog creatief kunnen zijn zonder AI.[19]

Het smeden van computerintelligentie begon in de jaren dertig door de Engelse wiskundige Alan Turing, een van de voorvaders van de informatica. Computers waren voor 1949 ontzettend duur en konden geen commando's opslaan om te herinneren wat ze deden. De theorieën waren aanwezig om geverifieerd te worden maar er waren nog belangrijke obstakels te overbruggen om effectief een intelligente machine te bouwen.[8]

Zie Turingtest voor het hoofdartikel over dit onderwerp.

In 1936 probeerde Alan Turing voor het eerst een antwoord op de vraag te formuleren of machines zouden kunnen denken en menselijke intelligentie vertonen. Aan de hand van een turingtest publiceerde hij het volgende gedachte-experiment: stel een computer kan iemand laten geloven dat hij een mens is, dan concludeerde hij dat de computer intelligentie vertoont. In 1950 publiceerde Turing een aanvulling op zijn turingtest, de Computing Machinery and Intelligence, waarin hij uitvoerig bespreekt hoe intelligente machines kunnen worden gebouwd om hun intelligentie te testen. Sinds 1965 wordt er jaarlijks een Turing Award uitgereikt, de meest prestigieuze prijs te winnen in de informatica.

Machine-learning-algoritme

[bewerken | brontekst bewerken]

In 1955, vijf jaar later, werd het bewijs van turing aangetoond met de Logic Theorist, een geschreven computerprogramma door Allen Newell, Cliff Shaw en Herbert Simon. Dit wordt tegenwoordig gezien als de eerste kunstmatige intelligentieprogramma en werd gepresenteerd in 1956 tijdens Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), georganiseerd door John McCarthy en Marvin Minsky. McCarthy gebruikte voor dit evenement de term "Kunstmatige intelligentie", de Nederlandse vertaling van zijn zelf bedachte Engelse term "Artificial Intelligence".

Vanaf 1957 kon een computer meer en meer informatie opslaan wat een opleving gaf om AI-systemen verder te ontwikkelen. Allen Newell, Cliff Shaw en Herbert Simon van RAND Corporation gaven in 1957 na de Logic Theorist een demonstratie van de General Problem Solver (GPS) met hun vernieuwde algoritme genaamd means–ends analysis, het allereerste machine-learning-algoritme dat tegenwoordig bij sommige AI-systemen nog steeds gebruikt wordt.

Eerste chatbot

[bewerken | brontekst bewerken]

Midden jaren 60 ontstond er forse verbeteringen in het oplossen van problemen met de nieuwe machinelearning-algoritme-aanpak en werd de chatbot ELIZA geïntroduceerd door Joseph Weizenbaum, een Duitse informaticus die er in slaagde successen te boeken met zijn interpretatie van gesproken taal met computers. Een persoon kan met ELIZA een gesprek voeren en de reacties van het programma komen tot stand in de vorm van een patroonvergelijking. Sinds 2008 wordt er jaarlijks een Weizenbaum Award uitgereikt in het wetenschappelijk tijdschrift Ethics and Information Technology.

Onderzoek en financiering

[bewerken | brontekst bewerken]

In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.[20] In 1969 kwam de financiering zwaar onder druk te staan door gebrek aan rekenkracht en opslagmogelijkheden. Hans Moravec, destijds promovendus van McCarthy, verklaarde dat computers nog steeds miljoenen keren te zwak waren om informatie te tonen.

Kunstmatige intelligentie is een interdisciplinair vakgebied. De onderzoekgebieden variëren van informatica tot datawetenschappen. Een greep uit deze gebieden: patroonvergelijkingen, booleaanse algebra, cognitieve psychologie, logica, statistiek en linguïstiek.

Chinese-kamer-experiment

[bewerken | brontekst bewerken]
Zie Chinese kamer voor het hoofdartikel over dit onderwerp.

Begin jaren 80 liet filosoof John Searle weten het niet volledig eens te zijn met de conclusie van Turing. Volgens Turing zijn sommige computerprogramma’s intelligent te noemen maar moet het wel de turingtest doorstaan. Maar Searle bedacht en publiceerde in 1980 hiervoor het Chinese-kamer-experiment als tegenargument, een gedachte-experiment dat aantoont dat als een computer zich precies gedraagt als een mens, nog niet duidelijk is dat de computer ook denkt als een mens als deze de turingtest doorstaat. Hij neemt een mens als voorbeeld in een kamer dat Chinese tekens moet vertalen aan de hand van een codeboek. Een persoon die de vertaling overhandigd krijgt, zal denken dat de vertaler Chinees kan. Maar de persoon in de Chinese kamer kan evengoed een computer zijn.

Beide experimenten hebben een relevantie. Stel dat een kleuter een aantal foto’s van katten te zien krijgt. Dan zal de gemiddelde kleuter daarna een kat kunnen herkennen, maar volgens het Chinese-kamer-experiment zegt dat nog niets over hoe intelligent de kleuter is. Wanneer een computer ook een kat kan herkennen, vertoont de computer volgens de turingtest dezelfde mate van intelligentie als de kleuter. Dus is het moeilijk te definiëren wat intelligentie nu precies inhoudt. Maar voor AI hoeft dat niet per definitie een probleem te zijn vandaag de dag, want het is immers gedefinieerd in woorden wat de streefdoelen zijn voor hedendaagse AI. (Zie tabel type AI).

Hopfield-netwerk

[bewerken | brontekst bewerken]

Rond de jaren 80 werd AI-ontwikkeling verder aangewakkerd mede door John Hopfield en David Rumelhart, zij populariseerden in 1982 een deep-learning-techniek waarmee computers kunnen leren van menselijke ervaringen, ook het Hopfield-netwerk genoemd. Dit zorgde voor een boost en een verbeterde algoritmische toolkit met een verhoging van fondsen tot wel 400 miljoen dollar tussen 1982 en 1990. Rond dezelfde periode introduceerde Edward Feigenbaum ook zijn besluitvormingsproces, een expertsysteem om een menselijke expert na te bootsen.

In 2024 won de Amerikaan John Hopfield en de Canadees Geoffrey Hinton samen de Nobelprijs van Fysica als pioniers in het AI-onderzoek en neurale netwerk. Hopfield won voor de fysische eigenschap van atomen en Hinton voor het statistisch netwerk van zijn boltzmann-machine.[14]

Publieke belangstelling

[bewerken | brontekst bewerken]

Vanaf 1990 viel de artificiële intelligentie niet langer meer onder het onderwerp "onderzoek", maar onder iets dat steeds vaker in de praktijk werd toegepast. Ondanks dat er geen grote financieringen meer werden toegekend, kwam AI toch in een stroomversnelling terecht omdat de opslagcapaciteiten toenamen. Dit is de hoofdreden waarom computer Deep Blue de wereldkampioen Gary Kasparov schaken in 1997 kon verslaan, en eveneens de Chinese Go-kampioen Ke Jie in 2017 kon verliezen van de computer Google's AlphaGo. Dit berust op wiskundige berekeningen en besluitvorming die vanuit elke gegeven startpositie vooruit denkt en de stellingen evalueert. De vereiste parameters konden (beperkt) getuned worden. Dit behoort tot het leermodel versterkt leren.

In datzelfde jaar, in 1997, werd de spraakherkenningssoftware ontwikkeld door Dragon Systems en geïntegreerd in Windows, alsook Kismet, een robot ontwikkeld door Cynthia Breazeal om emoties te herkennen en te tonen. In de jaren 90 en 2000 waren veel van de historische doelen van kunstmatige intelligentie eindelijk bereikt.

Ondanks de middelen op gebied van machinelearning al jaren voorhanden waren, kwam er pas in november 2022 de allereerste algemene AI-chatbot ChatGPT op de markt voor het grote publiek door OpenAI. Mede te danken aan de wet van Moore en de mogelijkheden van de rekenkracht, lanceerde grote softwaregiganten in een zeer korte tijd ook plots een AI-chatbot, zoals Google Gemini en Microsoft 365 Copilot. We leven in een tijd waarin enorme hoeveelheden ruwe omslachtige data door een computer kan worden verzameld en verwerkt tot informatie en patroonpunten. In de nabije toekomst liggen nog vele potentiële doorbraken in de artificiële intelligentie te wachten, maar wanneer de echte generatieve-AI aanbreekt en hoe die er uit zal zien weet momenteel nog niemand.

Controleorganen

[bewerken | brontekst bewerken]
Zie Regulering van kunstmatige intelligentie voor het hoofdartikel over dit onderwerp.

In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).

AI is de gezamenlijke verantwoordelijkheid van de ministeries van Economische Zaken, Justitie en Binnenlandse Zaken.[21]

Europese Unie

[bewerken | brontekst bewerken]
Zie Verordening Kunstmatige Intelligentie voor het hoofdartikel over dit onderwerp.

Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie.[22] De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die belast zal worden met de uitvoering van de wetgeving en het vastleggen van best practices.

Internationaal

[bewerken | brontekst bewerken]

Verschillende internationale instellingen en organisaties hebben gepleit voor een verantwoorde regulering (governance) van kunstmatige intelligentie:

  • Canadese instellingen lanceerden, op initiatief van de Universiteit van Montreal, in 2018 de Montréal Declaration for a Responsible Development of Artificial Intelligence.[23]
  • De Mozilla Foundation noemde in 2020 in haar “Witboek over Betrouwbare AI” een reeks belangrijke uitdagingen die moeten worden aangepakt via regelgeving en overleg.[24]
  • De UNESCO keurde in november 2021 een “Aanbeveling over de Ethiek van Kunstmatige Intelligentie” goed,[25] en publiceerde in 2023 “Ontbrekende schakels in AI-governance”.[26]
  • De Raad van Europa publiceerde in maart 2023 haar pleidooi voor internationale regulering van kunstmatige intelligentie.[27]

Een belangrijke wereldconferentie is de AI Safety Summit, voor het eerst gehouden op een tweedaagse bijeenkomst, eind 2023, in Bletchley Park in het Verenigd Koninkrijk. De mogelijk 'serieuze en zelfs catastrofale' gevaren van kunstmatige intelligentie werden daar internationaal erkend in de “Bletchley-verklaring” van 1 november 2023, ondertekend door 28 landen, waaronder de VS en het VK, China, Brazilië, India, Japan, plus de Europese Unie.[28][29][30] De volgende conferenties zijn voorzien in mei 2024 in Zuid-Korea, en eind 2024 in Frankrijk. Critici stelden echter dat op de Summit “niet de juiste vragen waren gesteld”.[31]

Naar aanleiding van de AI Safety Summit kondigde de secretaris-generaal van de VN de oprichting aan van een Hoog Adviesorgaan voor kunstmatige intelligentie, dat onderzoek moet uitvoeren en aanbevelingen uitbrengen voor de internationale governance van AI.[32]

“Openheid (open source), transparantie en brede toegang is dan weer de sleutel om de huidige en toekomstige schade van AI-systemen te beperken”, aldus meer dan 300 computerwetenschappers en vooraanstaande IT'ers, in een open brief van 31 oktober 2023, onder de koepel van de Mozilla Foundation.[33]

Sedert 2018 publiceert het Institute for Human-Centered AI aan de Stanford-universiteit een jaarlijkse AI index,[34] waarin gegevens met betrekking tot kunstmatige intelligentie worden verzameld, met de bedoeling een grondiger en genuanceerder begrip te ontwikkelen van het complexe gebied van AI.

De editie 2024[35] stelt vast: “een decennium geleden waren de beste AI-systemen ter wereld niet in staat om objecten in afbeeldingen op een menselijk niveau te classificeren. AI had moeite met taalbegrip en kon geen wiskundige problemen oplossen. Tegenwoordig overtreffen AI-systemen vaak menselijke prestaties op standaard benchmarks.” Het rapport vat de belangrijkste trends samen:

  • AI verslaat mensen bij sommige taken, maar niet bij alle.
  • De techindustrie blijft het AI-onderzoek domineren (ten opzichte van de academische wereld).
  • Trainingskosten voor nieuwe modellen stijgen snel.
  • De Verenigde Staten kloppen China, de EU en het Verenigd Koninkrijk als de belangrijkste bron van AI-topmodellen.
  • Robuuste en gestandaardiseerde evaluaties voor verantwoorde (risico’s en beperkingen) LLM-taalmodellen ontbreken; elke ontwikkelaar gebruikt eigen benchmarks.
  • Investeringen in generatieve AI schieten omhoog.
  • AI maakt werknemers productiever en leidt tot werk van hogere kwaliteit, zo blijkt uit de cijfers, al is nuance geboden.
  • Wetenschappelijke vooruitgang is in een stroomversnelling gekomen dankzij AI.
  • Regulering van AI (regels en reglementen) neemt sterk in aantal toe in de Verenigde Staten.
  • Kennis en bewustzijn rond de potentiële impact van AI is wereldwijd toegenomen, maar ook de nervositeit.

Een peiling uit 2023 in 31 landen, uitgevoerd door Ipsos, wees op gemengde gevoelens ten aanzien van AI:

  • Het vertrouwen in AI varieert sterk per regio; het is over het algemeen veel hoger in opkomende markten en onder mensen onder de 40 dan in hoge-inkomenslanden en onder Gen X'ers en Boomers.
  • Het vertrouwen van mensen dat bedrijven die AI gebruiken hun persoonlijke gegevens zullen beschermen, varieert van 72% in Thailand tot slechts 32% in Frankrijk, Japan en de VS.
  • Het percentage mensen dat erop vertrouwt dat AI groepen mensen niet zal discrimineren, is nog sterker verdeeld over de landen.
  • De nervositeit rond AI is het hoogst in alle overwegend Engelstalige landen en het laagst in Japan, Zuid-Korea en Oost-Europa.[36]

Europese AI-modellen

[bewerken | brontekst bewerken]

Vanaf 2020 ontstonden in verschillende Europese landen projecten voor kunstmatige intelligentie,[37] veelal grote taalmodellen (LLM), meestal in open source, en sommige modellen “spreken” meerdere Europese talen. Het gaat onder meer om:

Internationale AI-modellen

[bewerken | brontekst bewerken]

Hoewel onderzoek naar kunstmatige intelligentie reeds op gang kwam tijdens de economische hervormingen onder Deng Xiaoping, heeft de regering pas sinds 2006 gestaag een nationale agenda voor de ontwikkeling van kunstmatige intelligentie ontwikkeld, waardoor China na 2020 is uitgegroeid tot een van de leidende naties op het gebied van onderzoek en ontwikkeling van kunstmatige intelligentie.[38] De Chinese overheid ziet kunstmatige intelligentie als een pijler van China's streven om een technologische supermacht te worden.[39] Een van de belangrijkste instellingen is het Beijing Zhiyuan Onderzoeksinstituut voor Kunstmatige Intelligentie, afgekort tot Zhiyuan Instituut.

Onder de slogan “#AiforAll” ligt in India de nadruk op de toepassing van kunstmatige intelligentie in de gezondheidszorg, de landbouw, het onderwijs, slimme steden en vervoer. Op nationaal niveau werd de oprichting van onderzoeksinstituten gestimuleerd, naast een nationale strategie om onderzoeksinspanningen te coördineren en samenwerking te bevorderen. Opleiding en bijscholing van werknemers, ethische overwegingen, privacybescherming en intellectuele eigendomsrechten worden benadrukt als cruciale aandachtspunten. Het overheidsbeleid wordt onder meer gecoördineerd door NITI Aayog, National Institution for Transforming India, een denktank en adviesorgaan van de overheid.

India telt een groeiend aantal AI-bedrijven, waaronder Zoho Corporation.

Pas in 2019 werd in Rusland ernstig werk gemaakt van AI-modellen, onder coördinatie van de “AI Russia Alliance”.[40]

Verenigde Arabische Emiraten

[bewerken | brontekst bewerken]
  • Arabisch: in de Verenigde Arabische Emiraten werd in 2023 het opensource-taalmodel Jais voorgesteld. Een van de uitdagingen voor Arabischtalige modellen is de complexiteit van, en regionale verschillen in de taal.[41]

Kritische beoordelingen

[bewerken | brontekst bewerken]

Artificiële intelligentie biedt vele voordelen maar soms ook nadelen. De AI-evolutie kan niet meer gestopt worden. Bepaalde kritische zaken kunnen in de toekomst nog wel verholpen worden door machines beter te trainen en te hertrainen met verbeterde algoritmische technologieën. Maar sommige risico's en nadelen zullen minder, moeilijk of zelfs nooit opgelost geraken.

Sensibilisering

[bewerken | brontekst bewerken]

Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, hebben zelfs gepleit voor een volledige stopzetting van AI-experimenten en -ontwikkelingen van geavanceerde taalmodellen.[42] In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.[43]

Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de gevaren van de AI-ontwikkeling, zowel op korte termijn als een meer fundamenteel, existentieel risico op langere termijn, bijvoorbeeld door technologische singulariteit.[44] OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.[45]

Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs via justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen.[46][47] De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.[48]

In haar boek Automating Inequality (“Automatisering van de ongelijkheid”) uit 2019 onderzocht Virginia Eubanks de impact van datamining, beleidsalgoritmen en voorspellende risicomodellen op arme mensen en mensen uit de arbeidersklasse in Amerika.[49]

Het Internationaal Monetair Fonds (IMF) bevestigde in een studie van 2024 het risico op toenemende ongelijkheid door kunstmatige intelligentie.[50][51]

Auteursrechten

[bewerken | brontekst bewerken]

Voor het 'trainen' van AI-systemen worden miljarden tekstfragmenten en afbeeldingen uit het internet gebruikt en zonder bronvermelding in de resultaten verwerkt. Daarmee zouden auteursrechten van schrijvers en kunstenaars zijn geschonden en hebben een class-action-zaak gestart tegen Stability AI.[52] Maar ook grote mediabedrijven, het Internet Archive en sociale media zoals Twitter en Reddit namen al maatregelen om het – in hun ogen ongeoorloofde – massaal opzuigen van informatie uit hun websites (“web scraping”) voor de training van taalmodellen tegen te gaan.[53] Een aparte kwestie is of op een bepaald moment aan een AI-systeem zelf auteursrecht zou kunnen worden toegekend.[54] Het zou dan vermoedelijk moeten gaan om een eigen prestatie, waarbij het de vraag is wat dat eigen betekent (of zou kunnen betekenen).

Begin oktober 2024 waarschuwden auteursverenigingen voor een experiment van uitgeverij VBK om boeken met behulp van KI naar het Engels te laten vertalen en als e-boek uit te brengen op de Engelstalige markt.[55]

Publiek gebruik

[bewerken | brontekst bewerken]

De Mozilla Foundation pleitte in september 2024 in het rapport Public AI[56] voor publiek eigendom van KI-aangedreven instrumenten: “een KI-ecosysteem dat uitsluitend door de markt wordt aangedreven, zal prioriteit geven aan een beperkt aantal winstgevende toepassingen. Ondertussen wordt er te weinig geld uitgetrokken voor belangrijk werk - zoals het gebruik van AI om illegale mijnbouw op te sporen, overlegdemocratie mogelijk te maken en opensource-farmaceutische ontwikkeling - in verhouding tot de maatschappelijke waarde ervan. De status quo vormt een groot structureel risico: we kunnen niet vertrouwen op een paar bedrijven om alles te maken wat onze maatschappij nodig heeft van KI, en we kunnen ons het risico niet veroorloven dat ze dat niet doen.”[56] Ook anderen waarschuwden voor een eenzijdig-commerciële uitrol van KI-toepassingen,[57] en pleitten - zoals de VN - voor een “KI-beleid voor de mensheid”,[56][58] Anderzijds groeide in de sector sedert 2022 de belangstelling voor non-profit- toepassingen van kunstmatige intelligentie,[59] in 2024 ook door OpenAI zelf,[60] en Google’s rapport AI in Action: Accelerating Progress Towards the Sustainable Development Goals van mei 2024.[61] Intussen zijn al enkele open source-platformen voor KI in gebruik,[56] onder meer BLOOM.

Werkgelegenheid

[bewerken | brontekst bewerken]

De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers.[62] Ook IBM kondigde aan grotendeels te stoppen met het werven van nieuwe medewerkers in functies die vervangen kunnen worden door AI en automatisering.[63] De impact is echter zeer ongelijk verdeeld naar gender: volgens Amerikaans onderzoek uit 2023 zouden acht van de tien vrouwen (58,87 miljoen) in de Amerikaanse beroepsbevolking beroepen uitoefenen die in hoge mate blootstaan aan generatieve AI-automatisering (meer dan 25% van de beroepstaken) tegenover zes van de tien mannen (48,62 miljoen).[64] Ook de OESO waarschuwde in 2023 in het jaarlijks rapport Employment Outlook: “De steeds snellere ontwikkelingen op het gebied van AI zullen waarschijnlijk een grote invloed hebben op de werkgelegenheid (…) dringend actie moet worden ondernomen (…) de risico's aan te pakken.[65]

Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.[66]

De methodes waarmee kunstmatige intelligentiesystemen werken, zijn kwetsbaar voor specifieke AI-aanvallen, die fundamenteel verschillen van traditionele cyberaanvallen. Hackers kunnen deze systemen dan manipuleren om een kwaadaardig einddoel te dienen. Naarmate AI-systemen verder worden geïntegreerd in kritieke onderdelen van de samenleving vormen deze aanvallen een verregaand veiligheidsrisico.[67]

Politieke voorkeur

[bewerken | brontekst bewerken]

Onderzoek uit 2023 suggereerde dat veel grote LLM's en met name ChatGPT een systematische vooringenomenheid vertoonde ten gunste van de Democraten in de Verenigde Staten en de Labour Party in het Verenigd Koninkrijk.[68] Volgens ander onderzoek heeft ChatGPT een pro-milieu- en links-libertarische oriëntatie.[69]

Personal assistent

[bewerken | brontekst bewerken]

Er komen steeds meer apps op de markt[70] die door toepassing van AI als personal assistent kunnen dienen, zoals er ook robots zijn die een dergelijke functie hebben. Veel van die assistenten zijn zo geprogrammeerd dat zij hun gebruiker tevreden willen stellen. Door voortdurende wisselwerking tussen gebruiker en assistent kan de gebruiker daardoor in een bubble terechtkomen van zelfbevestiging, zoals dat op soortgelijke manier gebeurt bij het gebruik van sociale media. Maar zo'n assistent kan ook zo geprogrammeerd worden dat hij de gebruiker confronteert met andere meningen, zodat hij een sparring partner[71] wordt en het kritisch vermogen van de gebruiker stimuleert.

Vrije meningsuiting

[bewerken | brontekst bewerken]

Het inhoudelijk gebruiksbeleid van grote chatbots blijkt niet te voldoen aan de internationale normen inzake vrijheid van meningsuiting, die op dit punt meer toelaten. De vermoedelijke oorzaak ligt in het ontbreken van een solide cultuur van vrije meningsuiting, waardoor de bedrijven die generatieve AI-tools produceren en beheren, onder vuur blijven liggen van tegenstrijdige kampen in een sterk gepolariseerde opiniewereld. AI-chatbots gaan dan in de praktijk vaak uitvoer censureren wanneer ze onderwerpen behandelen die de bedrijven controversieel vinden. Zo bleek uit onderzoek van denktank The Future of Free Speech[72] dat chatbots als ChatGPT en Gemini vooringenomen waren over controversiële onderwerpen zoals “of transgendervrouwen wel of niet mogen deelnemen aan vrouwensporttoernooien” of over “de rol van het Europese kolonialisme in de huidige klimaat- en ongelijkheidcrises”. Concreet weigerden de chatbots inhoud te genereren voor 40% van de 140 “controversiële” prompts die werden ingevoerd. Alle chatbots weigerden bijvoorbeeld berichten te genereren die gekant waren tegen de deelname van transgendervrouwen aan vrouwentoernooien. De meeste chatbots genereerden echter wel berichten waarin hun deelname werd ondersteund.

Energie en grondstoffen

[bewerken | brontekst bewerken]

AI-systemen verbruiken viermaal zoveel elektriciteit als servers voor cloudcomputing, hetgeen tot tekorten en competitie kan leiden, nog afgezien van de milieu-impact.[73] Een andere flessenhals is de levering van krachtige microchips. Het Amerikaanse Ministerie van Handel noemde reeds in 2022 geavanceerde AI-systemen “dreigende tekorten aan microchips”.[74]

Ook neurale netwerken zijn energie-intensieve systemen.[75] Enkele ramingen:

  • "Eén trainingsronde van het ChatGPT 3.5-model kost ongeveer 500 ton CO2-uitstoot, wat overeenkomt met 1000 auto's die elk 1000 km rijden".[76]
  • "ChatGPT gebruikt elke dag dezelfde hoeveelheid energie als 5.000 huizen."[77]
  • "Sommige toepassingen van supercomputing zullen de energie van één kerncentrale nodig hebben."[77]

Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen,[76] of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).[75]

Volgens Sam Altman (OpenAI) heeft kunstmatige intelligentie een energiedoorbraak nodig om haar toekomst te verzekeren.[78][79]

Falend bedrijfsmodel

[bewerken | brontekst bewerken]

Internetcritici zoals Cory Doctorow[80][81] en Brian Merchant[82] zien in het enthousiasme van investeerders voor toepassingen als ChatGPT en de hype die ermee gepaard gaat de kenmerken van een groeiende tech-bubbel, omdat volgens hen een solide basis voor het bedrijfsmodel ervan ontbreekt. De zeer hoge kostprijs voor onder meer het ontwikkelen en vooral het energieverbruik van deze grote modellen, en de dreigende rechtszaken over het auteursrecht staan volgens hen niet in verhouding tot de verwachte opbrengsten, waarvoor de vooruitzichten enkel in minder winstgevende applicaties gegarandeerd lijken. Daarenboven zijn de meest winstgevende applicaties intolerant voor de kleine, maar reële foutenmarge van KI, of kunnen deze fouten op termijn kostbare consequenties veroorzaken.[83]

Aansprakelijkheid

[bewerken | brontekst bewerken]

Wanneer deels geautomatiseerde systemen bestaan uit een combinatie van kunstmatige intelligentie en menselijke supervisie, kunnen problemen ontstaan bij het toewijzen van aansprakelijkheid wanneer het systeem in de fout gaat. Sommige analisten noemen het concept “een morele kreukelzone” om te beschrijven hoe de verantwoordelijkheid voor een handeling ten onrechte kan worden toegeschreven aan een menselijke actor die echter maar een beperkte controle had over het gedrag van een geautomatiseerd of autonoom systeem. Net zoals de kreukelzone in een auto ontworpen is om de kracht van een botsing te absorberen, kan de mens in een zeer complex en geautomatiseerd systeem gewoon het onderdeel worden - per ongeluk of opzettelijk - dat de grootste morele en juridische verantwoordelijkheden draagt wanneer het hele systeem slecht functioneert.[84]

AI-systemen kunnen malware schrijven, en phishingmails komen bijzonder geloofwaardig over.[85]

Omgekeerd bestaat ook het risico dat AI-systemen ten onrechte personen, bijvoorbeeld uitkeringsgerechtigden, bestempelt als fraudeurs, met terugvordering van geldsommen als gevolg. Dat gebeurde in 2023 in Australië met het onder toenmalig minister van Sociale Zaken Scott Morrison uitgerolde AI-gebaseerd systeem Robodebt. De zaak deed denken aan de Nederlandse Toeslagenaffaire.[86]

Het gebruik van kunstmatige intelligentie bij het beheer van vitale infrastructuur zoals energieproductie, vervoersystemen en waterbeheer verhoogt ook de kans op catastrofes bij het wegvallen of ontsporen ervan. Anderzijds kan met behulp van AI een cyberaanval op vitale infrastructuur beraamd worden.[87][88]

Zie Hallucinatie (kunstmatige intelligentie) voor het hoofdartikel over dit onderwerp.

AI-systemen kunnen een zelfverzekerde reactie produceren die niet lijkt gerechtvaardigd te worden door zijn trainingsgegevens, en niet overeenstemt met de werkelijkheid.

Een algoritme-technologie zoals het menselijk brein is nog niet voor vandaag of in de verre toekomst. De kracht van de menselijke intelligentie is dat mensen razendsnel van gedachte kunnen wisselen en inspelen op onverwachte situaties. De basishandelingen van een mens worden automatisch aangestuurd door de hersenen. Zodra iemand een bepaalde vaardigheid niet bezit, treedt denkvermogen op. De menselijke factor is dus in staat iets bewust mee te maken dat leidt tot nieuwe beslissingen en leervermogen. Dit is de vaardigheid die een super-AI minstens zou moeten beheersen om deze fase in te gaan. Het artikel functionalisme gaat dieper in op het technische aspect ervan.

[bewerken | brontekst bewerken]
Zie de categorie Artificial intelligence van Wikimedia Commons voor mediabestanden over dit onderwerp.