Kunstmatige intelligentie

wetenschap die zich bezighoudt met het creëren van een artefact dat een vorm van intelligentie vertoont

Kunstmatige intelligentie (KI) of artificiële intelligentie (AI)[1] is de wetenschap die zich bezighoudt met het creëren van een artefact dat een vorm van intelligentie vertoont.

Een vergelijkbare Deep Blue-computer won in 1997 van Kasparov.
Hoe kunnen computers je anders laten denken? - Universiteit van Nederland

Omschrijving bewerken

Het is moeilijk te definiëren wat 'intelligentie' precies is. Het is derhalve ook moeilijk te definiëren wat artificiële intelligentie precies is.

Dingen die aanvankelijk als zeer intelligent werden beschouwd, zoals het winnen van een partij schaak van de wereldkampioen schaken, blijken opeens toch niet zo intelligent te zijn als het doel eenmaal is bereikt (Kasparov-Deep Blue, 1997). Soms wordt weleens half-schertsend gezegd 'Kunstmatige intelligentie is wat we de computer nog niet kunnen laten doen'.

Meer gedetailleerd definiëren Andreas Kaplan en Michael Haenlein artificiële intelligentie als "het vermogen van een systeem om externe gegevens correct te interpreteren, om te leren van deze gegevens, en om deze lessen te gebruiken om specifieke doelen en taken te verwezenlijken via flexibele aanpassing."[2] Geleend uit de managementliteratuur, classificeren Kaplan en Haenlein artificiële intelligentie in drie verschillende types van AI-systemen: analytisch, mens-geïnspireerd en vermenselijkte artificiële intelligentie. Analytische AI heeft enkel eigenschappen die consistent zijn met cognitieve intelligentie die een cognitieve voorstelling van de wereld genereert en die leren gebruikt op basis van vorige ervaringen om toekomstige beslissingen te beïnvloeden. Mens-geïnspireerde AI bevat elementen van cognitieve en emotionele intelligentie, begrip, in aanvulling op cognitieve elementen, alsook menselijke emoties waarmee rekening wordt gehouden in het beslissingsproces. Vermenselijkte AI vertoont eigenschappen van alle types competenties (cognitieve, emotionele en sociale intelligentie), en is in staat zelfbewust te zijn in interacties met anderen.

Een vrij algemeen geaccepteerde test voor kunstmatige intelligentie is de turingtest, geformuleerd door de Engelse wiskundige Alan Turing, een van de vaders van de informatica. Deze komt erop neer dat als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, de computer intelligent moet zijn.

Deze visie kan tot het 'extreme' doorgevoerd worden, wat leidt tot het idee dat een kunstmatig intelligente entiteit het ultieme model van de mens is. In deze hoedanigheid heeft de AI veel te maken met de psychologie. Een andere visie is om alleen de 'goede' dingen van de mens te gebruiken en waar mogelijk dingen te verbeteren. Computers zijn in verschillende dingen, zoals wiskunde, een stuk beter dan mensen. Een menselijke intelligentie gecombineerd met de rekenkracht en opslagtechnieken van een computer overstijgt de menselijke intelligentie. Bij dergelijke artefacten is de mens als maat overduidelijk minder geschikt. Als dit het doel is dan relateert de AI zich weer meer met de informatica.

Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Zoals te lezen is zijn veel takken van de wetenschap gerelateerd aan de AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.

Artificiële intelligentie is allang niet meer alleen een onderwerp van onderzoek, maar iets dat steeds vaker in de praktijk wordt toegepast. Zo maakt het zoekalgoritme van Google steeds meer gebruik van AI, met technologieën als Hummingbird en RankBrain, en wordt ook in andere facetten van online marketing artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.[3]

Turingtest bewerken

  Zie Turingtest voor het hoofdartikel over dit onderwerp.

De turingtest komt erop neer dat als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, de computer intelligent moet zijn. Voor zo'n test moeten dan de omstandigheden zodanig worden gemaakt dat de proefpersoon niet ziet met wie hij praat, bijvoorbeeld door via een toetsenbord met iemand in een andere kamer te converseren. Een definitie van John McCarthy uit 1955 stelt dat het gaat om "een machine zich zo laten gedragen dat we dat intelligent gedrag zouden noemen als een mens zich zo gedroeg" in zijn "Proposal for the Dartmouth Summer Research Project On Artificial Intelligence" (1955), waarin de term voor het eerst opduikt.

Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd en zou meer dan tien maal zo krachtig zijn als bijvoorbeeld Microsofts Turing NLG. Een onderzoek uit september 2020 door Katherine Elkins en Jon Chun[4] toont aan dat het algoritme van GPT-3 in sommige gevallen in staat is om de turingtest te doorstaan.[4]

Het Chinese kamer-argument bewerken

  Zie Chinese kamer voor het hoofdartikel over dit onderwerp.

Om een voorstelling te kunnen maken dat het niet nodig is een opdracht inhoudelijk te begrijpen om deze tot een goed einde te brengen, stelt John Searle zijn Chinese kamer gedachte-experiment voor. Dit houdt in dat je je voorstelt in een afgesloten kamer te zitten en dat je volgens een formeel instructieprogramma handmatig een output genereert aan de hand van een input. Dat je hiervoor de input niet hoeft te begrijpen, bewijst het feit dat deze input en output onder vorm van Chinese tekens gebeurt, zonder dat je enige kennis van het Chinees bezit. Dat de output dankzij het programma toch correct gebeurt, wordt aangetoond doordat wel Chineessprekenden de output inhoudelijk zinvol vinden. In het experiment worden in het Chinees geschreven vragen ter input aangeboden. De antwoorden die verkregen worden door het blindelings opvolgen van de instructies zijn dermate goed dat de proefpersoon niet doorheeft dat de antwoorden gegeven werden door iemand die totaal geen Chinees begrijpt.

Searle wil hiermee bewijzen dat dit geen intelligentie betreft: de gebruiker begrijpt immers zelf niets van de output. Een computer kan dus volgens Searle slagen voor de turingtest, maar toch niet intelligent zijn.

Een voor de hand liggend tegenargument is dat het in dit voorbeeld psychologisch haast onvermijdelijk is dat je je met de "persoon" in de kamer vereenzelvigt die geen Chinees begrijpt, maar dat dit onjuist is, getuigt het feit dat het totale systeem (de kamer plus inhoud, uitvoerend persoon plus programma), wel Chinees begrijpt.

Een tegenovergestelde vraag kan ook gesteld worden: wat moet de bewoner van de Chinese kamer doen om de buitenwereld duidelijk te maken dat hij géén computer is? Let wel: een "verkeerd" antwoord zal een buitenstaander alleen maar interpreteren als een programmafout of een fout in de werking van de computer.

Sterke en zwakke AI bewerken

Binnen de AI kan onderscheid gemaakt worden tussen "sterke AI" en "zwakke AI".

Sterke AI houdt zich bezig met onderzoek met betrekking tot het creëren van een computer of software die echt kan redeneren en problemen oplossen, en die wellicht zelfbewustzijn zou hebben; hiervan zijn weer twee subtypen te onderscheiden, namelijk de mens-gelijke AI, een computer die redeneert en denkt als een mens, en de niet-mens-gelijke AI, waarin de computer een niet-menselijke, maar eigen computer-intelligentie ontwikkelt.

Zwakke AI houdt zich bezig met onderzoek in beperkte deelgebieden waarin gedragingen mogelijk zijn die intelligent lijken, maar niet echt intelligent zijn. Hier zijn de meeste vorderingen gemaakt, in de vorm van bijvoorbeeld zoekalgoritmen en expertsystemen.

Er valt een argument te maken dat er geen onderscheid is tussen sterke en zwakke AI. Het kan namelijk gezien worden als twee uitersten op een schaal. Een conglomeratie van meerdere "zwakke AI" kan heel erg lijken op een "sterke AI". Bovendien, als het intelligent oogt en zich intelligent gedraagt … is het dan niet gewoon intelligent? Oftewel: is een "sterke AI" niet gewoon een zeer uitgebreide "zwakke AI"? Wederom speelt het probleem waarmee dit artikel begon: wat is intelligentie?

Of de sterke variant mogelijk is, blijft onderwerp van debat. De voorstanders zeggen dat aangezien de mens het ook met zijn hardware (namelijk het zenuwstelsel) doet, dit althans theoretisch in principe na te bootsen moet zijn in computerhardware. De tegenstanders beweren van niet, omdat de mens het volgens hen juist niet alleen met zijn hardware doet: wat een mens tot een mens maakt is meer dan hardware. De Engelse wiskundige Roger Penrose heeft betoogd dat het nabouwen/simuleren van menselijke hersenen principieel onmogelijk is op grond van de Onvolledigheidsstelling van Kurt Gödel maar zijn tegenstanders beweren dat dezelfde argumenten ook voor de hersenen zouden gelden en dat Penrose althans zichzelf toch wel intelligent vindt. Het argument van Lucas van J.R. Lucas maakt ook gebruik van de onvolledigheidsstelling van Gödel om te beredeneren dat mensen iets kunnen wat computers niet kunnen.

Een ander argument dat tegen sterke AI pleit is dat het referentiekader van een computer zich beperkt tot de rationele behandeling van (digitaal verworven) kennis, terwijl mensen een referentiekader hebben dat naast geloof, waanideeën en vooroordelen ook gevuld wordt met zintuiglijke ervaringen die niet in woorden zijn uit te drukken: de zogenaamde qualia. Een robot kan wel uitgerust worden met sensoren, maar die leveren hooguit een simulatie van zintuiglijke ervaringen op die niet vergelijkbaar is met de qualia-ervaring van mensen. In het bijzonder geldt dat voor het gevoel[5]: een robotcomputer kan nooit een zinnig antwoord geven op de vraag "Hoe voel je je vandaag?" op een vergelijkbare manier waarop mensen dat ervaren (maar hij kan natuurlijk wel liegen).

Een andere vraag is: als (sterke) kunstmatige intelligentie mogelijk is, is er dan een bovengrens aan de mogelijke intelligentie? Deze vraag wordt ontkennend beantwoord door de transhumanisten.

Het gebruik van algoritmen bewerken

Een algoritme is een procedure voor het oplossen van een probleem. In de discussie over AI wordt vaak ten onrechte gewezen op slimme algoritmen, die zelfs de menselijke intelligentie zouden kunnen "verslaan". Niets is minder waar: algoritmen zijn buitengewoon dom:[6][7][8] ze doen namelijk precies wat er van hun gevraagd wordt (zo niet dan zou dat juist wijzen op sterke AI). Maar ze doen dat wel buitengewoon snel wat de illusie van "slim" zijn suggereert. Algoritmen zijn sterk in het snel verwerken van grote hoeveelheden data, zoals blijkt uit patroonherkenning door robots (zoals het stellen van diagnoses van ziektebeelden, zelfrijdende auto's, schaakcomputers, etc.). De bedenker van zo'n algoritme kan misschien wel slim zijn, maar hij is onvermijdelijk behept met de beperking dat hij niet kan garanderen dat zijn algoritme een oplossing is van zijn probleem als de context van het probleem niet scherp is te definiëren. Het referentiekader van zo'n algoritme is beperkt (zoals bv. bij het schaakspel). In het reële leven hebben mensen echter te maken met een veelheid van elkaar deels overlappende contexten binnen een breed referentiekader waarin de probleemstelling niet scherp te definiëren is. De kracht van menselijke intelligentie is juist dat mensen razendsnel van context kunnen wisselen, bv. tijdens een gedeeltelijke oplossing van een probleem. Dit is ook de basis voor paradigma-verschuivingen bij probleemoplossingen.

Patronen herkennen doen mensen en dieren voornamelijk onbewust, tenzij het patroon afwijkt van wat we verwachten. Die onbewuste werkwijze wijst op het uitvoeren van een algoritme in het neurale netwerk. Feitelijk worden alle handelingen die iemand automatisch, zonder er bij na te denken, doet, uitgevoerd door algoritmen in het centrale zenuwstelsel. Het bewustzijn wordt pas actief als het algoritme stagneert door een onverwachte gebeurtenis.

Sommige algoritmen kunnen leren, dat wil zeggen dat ze nieuwe patronen die ze nog niet kennen aan hun database kunnen toevoegen. Het gevaar bestaat dat zo'n nieuw patroon een vooroordeel versterkt. Een database vrijwaren van vooroordelen is buitengewoon lastig en vereist veel menselijke intelligentie. Hierdoor falen regelmatig allerlei algoritmen.[9]

Onderzoeksgebieden binnen de AI bewerken

Kunstmatige intelligentie is een interdisciplinair vakgebied. Om functionele kunstmatige intelligentie te bereiken worden er technieken uit verschillende vakgebieden gebruikt. Deze vakgebieden variëren van informatica tot geesteswetenschappen. Een greep uit deze gebieden: patroonherkenning en beeldverwerking, cognitieve psychologie, logica, statistiek en linguïstiek. Voorbeelden van onderzoeksvragen zijn:

  • Het begrijpen van opdrachten die worden gegeven met betrekking tot een kamer waarin zich eenvoudige geometrische vormen (kubussen, piramides, etc) in verschillende vormen en kleuren bevinden, zoals "zet de rode piramide op de grote blauwe kubus".
  • Het simuleren van het gedrag van (veel) eenvoudiger dieren dan mens, bijvoorbeeld een mier, of een bodemaaltje, maar ook dat van een school vissen of een zwerm vogels (zwermintelligentie).
  • Het spelen van diverse denksporten, bijvoorbeeld schaken, dammen, checkers of Go. Checkers (dammen op een 8x8 bord) was het eerste niet-triviale denkspel waarvan begin jaren 60 al werd beweerd dat het door de computer opgelost was. Bij deze bewering zijn - althans waren in die tijd - een groot aantal kanttekeningen te plaatsen en de "algemeen bekende feiten" hierover zijn bijna allemaal onjuist: het programma versloeg eenmaal een redelijk bekwaam speler die geen meester of grootmeester was, en verloor de volgende 6 partijen. De decennialang onbetwiste wereldkampioen Marion Tinsley is kort voor zijn dood tweemaal verslagen door een checkersprogramma dat Chinook heet.
  • Het leren van een groot aantal feiten uit de echte wereld en het proberen daar door logische regels conclusies uit te trekken.
  • Het voeren van een gesprek waarbij de enige echte input van de menselijke gesprekspartner zelf komt, zonder dat die dat in de gaten heeft (rogeriaanse psychotherapie). Dit is een soort turingtest op een beperkt terrein, en het blijkt verrassenderwijs mogelijk een enorm aantal mensen, mits ze tevoren geen achterdocht koesteren, te misleiden: velen hebben al gevraagd even met de terminal alleen te worden gelaten om onder vier ogen met de computer te kunnen praten, "omdat hun gesprekspartner hen zo goed begrijpt".

Ook de benadering van het programmeerprobleem is zeer verschillend, van prescriptieve algoritmen tot logisch redenerende programma's tot zelflerende neurale netwerken. In dit leren maken we onderscheid tussen gecontroleerd leren, ongecontroleerd leren en versterkt leren.

AI in computerspellen bewerken

Bij videospellen wordt ook gesproken van een AI engine. Daarmee wordt de code bedoeld die de door de computer gestuurde tegenstanders van de menselijke speler aanstuurt. Het begrip AI engine wordt zowel gebruikt voor concurrenten van de menselijke speler in strategische spellen als Civilization als voor vijanden in schietspellen. Over het algemeen zijn de engines in de laatste spellen minder ontwikkeld of wordt simpelweg vervalst: moeilijkere vijanden zijn meestal simpelweg minder kwetsbaar, komen in grotere aantallen of hebben betere wapens, maar van intelligentie is nauwelijks sprake.

Dit gebrek aan intelligentie bij schietspellen wordt vooral veroorzaakt doordat het zeer lastig is om te bepalen wat nu 'goed' of 'slecht' is. Een computer AI kan bijvoorbeeld in het donker gaan staan zodat hij minder zichtbaar is, maar soms is het donkere gedeelte juist goed te beschieten vanaf bepaalde plekken. De AI kan tijdens een vuurgevecht afstand houden voor meer overzicht of juist dichterbij komen om de speler te overrompelen. Het is dus moeilijk om een AI te programmeren die aan dit soort problemen een 0 of een 1 kan plakken, oftewel een goed besluit kan nemen om door te lopen of terug te gaan. Simpelweg omdat het moeilijk te bepalen is, wat goed is voor de AI.

Bij strategische spellen zijn er veel numerieke variabelen in de 'game engine' waar een AI iets mee kan. Bijvoorbeeld: veel goudmijnen = veel geld. De programmeur programmeert de AI op zo'n manier dat als er weinig geld te besteden is de AI daarop reageert met het bouwen van meer goudmijnen. Dit heeft weer als gevolg dat hij een groot leger kan bouwen om de speler mee te verslaan. Het is dus veel makkelijker en duidelijker hoe je een AI moet programmeren zodat het een conflict met de speler kan winnen.

Er zijn ook technieken waarbij de programmeur minder werk heeft, zoals dynamic scripting, die een tegenstander 'leert' zich aan te passen aan de speler. In tegenstelling tot andere AI-gebieden wordt de intelligentie niet gemaximaliseerd: het doel is de tegenstander van ongeveer hetzelfde niveau te laten zijn als de speler, omdat het spelen tegen een te goede tegenstander niet als onderhoudend wordt ervaren. De tegenstanders beginnen volgens deze techniek dus met een matige speelsterkte, en groeien mee met het speelniveau van de speler.

Veelgebruikte technieken in computerspellen worden niet gebruikt in robots; het doel van kunstmatige intelligentie in computerspellen is om een realistische en plezierige belevenis voor de speler te creëren. Het is hiervoor vaak niet nodig om dezelfde mate van zelfstandigheid en rationaliteit in te bouwen in de bots zoals dat bij robots wel nodig is.

Onderzoek en onderwijs bewerken

In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.[10]

Opleidingen aan universiteiten en hogescholen bewerken

Aan verschillende universiteiten en hogescholen wordt AI als studie aangeboden.

In Nederland wordt dit onder andere onderwezen aan de Rijksuniversiteit Groningen, de Universiteit Utrecht (eerste opleiding in Nederland), de Universiteit van Amsterdam, de Vrije Universiteit, Tilburg University, de Radboud Universiteit Nijmegen en de Universiteit Maastricht en de Open Universiteit.

Van de Nederlandse hogescholen wordt onder andere aan de Hogeschool Utrecht en de Hogeschool van Amsterdam de opleiding Applied Artificial Intelligence gegeven.

In Vlaanderen lopen programma's aan de Universiteit Antwerpen, de Katholieke Universiteit Leuven, de Universiteit Gent en de Vrije Universiteit Brussel.

Academische organisaties bewerken

De Belgisch-Nederlandse Vereniging voor Kunstmatige Intelligentie (BNVKI) houdt zich bezig met academisch KI-onderzoek in België en Nederland. Op Europees niveau is dit de European Coordinating Committee for Artificial Intelligence (ECCAI), en in de Verenigde Staten de American Association for Artificial Intelligence (AAAI).

Tijdschriften bewerken

Organisaties en bedrijven bewerken

Een groeiend aantal non-profitorganisaties en commerciële bedrijven werken aan de ontwikkeling van kunstmatige intelligentie. Internationaal zijn vele daarvan toegetreden tot de coalitie Partnership on AI. In België is er AI4Belgium, in Wallonië het Réseau IA.

Regulering bewerken

België bewerken

In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).

Nederland bewerken

AI is de gezamenlijke verantwoordelijkheid van de ministeries van Economische Zaken, Justitie en Binnenlandse Zaken.[11]

Europese Unie bewerken

  Zie Verordening Kunstmatige Intelligentie voor het hoofdartikel over dit onderwerp.

Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie.[12] De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die zal belast worden met de uitvoering van de wetgeving en het vastleggen van best practices.

Internationaal bewerken

Verschillende internationale instellingen en organisaties hebben gepleit voor een verantwoorde regulering (governance) van kunstmatige intelligentie:

  • Canadese instellingen lanceerden, op initiatief van de Universiteit van Montreal, in 2018 de Montréal Declaration for a Responsible Development of Artificial Intelligence.[13]
  • De Mozilla Foundation noemde in 2020 in haar “Witboek over Betrouwbare AI” een reeks belangrijke uitdagingen die moeten worden aangepakt via regelgeving en overleg.[14]
  • De UNESCO keurde in november 2021 een “Aanbeveling over de Ethiek van Kunstmatige Intelligentie” goed,[15] en publiceerde in 2023 “Ontbrekende schakels in AI-governance”.[16]
  • De Raad van Europa publiceerde in maart 2023 haar pleidooi voor internationale regulering van kunstmatige intelligentie.[17]

Een belangrijke wereldconferentie is de AI Safety Summit, voor het eerst gehouden op een tweedaagse, eind 2023 in Bletchley Park in het Verenigd Koninkrijk. De mogelijk 'serieuze en zelfs catastrofale' gevaren van kunstmatige intelligentie werden daar internationaal erkend in de “Bletchley-verklaring” van 1 november 2023, ondertekend door 28 landen waaronder de VS en het VK, China, Brazilië, India, Japan, plus de Europese Unie.[18][19][20] De volgende conferenties zijn voorzien in april 2024 in Zuid-Korea, en eind 2024 in Frankrijk. Critici stelden echter dat op de Summit “niet de juiste vragen waren gesteld”.[21]

Naar aanleiding van de AI Safety Summit kondigde de secretaris-generaal van de VN de oprichting aan van een Hoog Adviesorgaan voor kunstmatige intelligentie, dat onderzoek moet uitvoeren en aanbevelingen uitbrengen voor de internationale governance van KI.[22]

“Openheid (open source), transparantie en brede toegang is dan weer de sleutel om de huidige en toekomstige schade van AI-systemen te beperken”, aldus meer dan 300 computerwetenschappers en vooraanstaande IT'ers, in een open brief van 31 oktober 2023, onder de koepel van de Mozilla Foundation.[23]

Controverses bewerken

Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, hebben zelfs gepleit voor een volledige stopzetting van KI-experimenten en -ontwikkeliingen van geavanceerde taalmodellen.[24] In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.[25]

Auteursrechten en web scraping bewerken

Voor het 'trainen' van AI-systemen worden miljarden tekstfragmenten en afbeeldingen uit het internet gebruikt en zonder bronvermelding in de resultaten verwerkt. Daarmee zouden auteursrechten van schrijvers en kunstenaars zijn geschonden.[26] Maar ook grote mediabedrijven, het Internet Archive en sociale media zoals Twitter en Reddit namen al maatregelen om het – in hun ogen ongeoorloofde – massaal opzuigen van informatie uit hun websites (“web scraping”) voor de training van taalmodellen tegen te gaan.[27] Een aparte kwestie is of op een bepaald moment aan een AI-systeem zelf auteursrecht zou kunnen worden toegekend.[28] Het zou dan vermoedelijk moeten gaan om een eigen prestatie, waarbij het de vraag is wat dat eigen betekent (of zou kunnen betekenen).

Controleverlies bewerken

Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de risico's van de AI-ontwikkeling, zowel op korte termijn als meer fundamenteel, bijvoorbeeld door technologische singulariteit.[29] OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.[30]

Het gebruik van kunstmatige intelligentie bij het beheer van vitale infrastructuur zoals energieproductie, vervoersystemen en waterbeheer verhoogt ook de kans op catastrofes bij het wegvallen of ontsporen ervan. Anderzijds kan met behulp van AI een cyberaanval op vitale infrastructuur beraamd worden.[31]

Desinformatie bewerken

Meer en meer duiken nepafbeeldingen op die zijn gemaakt met publiek toegankelijke programma's zoals Midjourney of DALL-E. Daarin wordt op basis van een tekstboodschap een realistisch lijkende afbeelding gegenereerd. Maar ook nepnieuws kan gemakkelijk gegenereerd worden door AI-systemen.

Diversiteit en ongelijkheid bewerken

Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs over justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen.[32][33] De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.[34]

In haar boek Automating Inequality (“Automatisering van de ongelijkheid”) uit 2019 onderzocht Virginia Eubanks de impact van datamining, beleidsalgoritmen en voorspellende risicomodellen op arme mensen en mensen uit de arbeidersklasse in Amerika.[35]

Het Internationaal Monetair Fonds (IMF) bevestigde in een studie van 2024 het risico op toenemende ongelijkheid door kunstmatige intelligentie.[36][37]

Personal assistent bewerken

Er komen steeds meer apps op de markt[38] die door toepassing van AI als personal assistent kunnen dienen, zoals er ook robots zijn die een dergelijke functie hebben. Veel van die assistenten zijn zo geprogrammeerd dat zij hun gebruiker tevreden willen stellen. Door voortdurende wisselwerking tussen gebruiker en assistent kan de gebruiker daardoor in een bubble terechtkomen van zelfbevestiging, zoals dat op soortgelijke manier gebeurt bij het gebruik van sociale media. Maar zo'n assistent kan ook zo geprogrammeerd worden dat hij de gebruiker confronteert met andere meningen, zodat hij een sparring partner[39] wordt en het kritisch vermogen van de gebruiker stimuleert.

Energieverbruik bewerken

Neurale netwerken zijn energie-intensieve systemen.[40] Enkele ramingen:

  • "Eén trainingsronde van het ChatGPT 3.5-model kost ongeveer 500 ton CO2-uitstoot, wat overeenkomt met 1000 auto's die elk 1000 km rijden".[41]
  • "ChatGPT gebruikt elke dag dezelfde hoeveelheid energie als 5.000 huizen."[42]
  • "Sommige toepassingen van supercomputing zullen de energie van één kerncentrale nodig hebben."[42]

Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen,[41] of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).[40]

Fraude bewerken

AI-systemen kunnen malware schrijven, en phishingmails komen bijzonder geloofwaardig over.[43]

Omgekeerd bestaat ook het risico dat AI-systemen ten onrechte personen, bijvoorbeeld uitkeringsgerechtigden, bestempelt als fraudeurs, met terugvordering van geldsommen als gevolg. Dat gebeurde in 2023 in Australië met het onder toenmalig minister van Sociale Zaken Scott Morrison uitgerolde AI-gebaseerd systeem Robodebt. De zaak deed denken aan de Nederlandse Toeslagenaffaire.[44]

Hallucinatie bewerken

  Zie Hallucinatie (kunstmatige intelligentie) voor het hoofdartikel over dit onderwerp.

AI-systemen kunnen een zelfverzekerde reactie produceren die niet lijkt gerechtvaardigd te worden door zijn trainingsgegevens, en niet overeenstemt met de werkelijkheid.

Kwaliteitsverlies bewerken

De vrees bestaat dat machinaal gegenereerde inhoud de kwaliteit van een internetencyclopedie zoals Wikipedia kan aantasten omdat automatisch geleverde informatie accuraat lijkt, maar het lang niet altijd is, en menselijke beoordeling vergt.[45][46][27]

Marktdominantie bewerken

Slechts een handvol techgiganten heeft de middelen om AI te bouwen, met monopolievorming en centralisatie als gevolg. Dit bemoeilijkt de innovatie en vrije mededinging.[14]

Werkgelegenheid bewerken

De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers.[47] Ook IBM kondigde aan grotendeels te stoppen met het aanwerven van nieuwe medewerkers in functies die vervangen kunnen worden door KI en automatisering.[48] De impact is echter zeer ongelijk verdeeld naar gender: volgens Amerikaans onderzoek uit 2023 zouden acht van de tien vrouwen (58,87 miljoen) in de Amerikaanse beroepsbevolking beroepen uitoefenen die in hoge mate blootstaan aan generatieve AI-automatisering (meer dan 25% van de beroepstaken) tegenover zes van de tien mannen (48,62 miljoen).[49] Ook de OESO waarschuwde in 2023 in het jaarlijks rapport Employment Outlook: “De steeds snellere ontwikkelingen op het gebied van AI zullen waarschijnlijk een grote invloed hebben op de werkgelegenheid (…) dringend actie moet worden ondernomen (…) de risico's aan te pakken.[50]

Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.[51]

Zie ook bewerken

Externe links bewerken

Zie de categorie Artificial intelligence van Wikimedia Commons voor mediabestanden over dit onderwerp.