Мы используем файлы cookie.
Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.

Kunstmatige intelligentie

Подписчиков: 0, рейтинг: 0
Een vergelijkbare Deep Blue-computer won in 1997 van Kasparov.
Hoe kunnen computers je anders laten denken? - Universiteit van Nederland

Kunstmatige intelligentie (KI) of artificiële intelligentie (AI) is de wetenschap die zich bezighoudt met het creëren van een artefact dat een vorm van intelligentie vertoont.

Omschrijving

Het is moeilijk te definiëren wat 'intelligentie' precies is. Het is derhalve ook moeilijk te definiëren wat artificiële intelligentie precies is.

Dingen die aanvankelijk als zeer intelligent werden beschouwd, zoals het winnen van een partij schaak van de wereldkampioen schaken, blijken opeens toch niet zo intelligent te zijn als het doel eenmaal is bereikt (Kasparov-Deep Blue, 1997). Soms wordt weleens half-schertsend gezegd 'Kunstmatige intelligentie is wat we de computer nog niet kunnen laten doen'.

Meer gedetailleerd definiëren Andreas Kaplan en Michael Haenlein artificiële intelligentie als "het vermogen van een systeem om externe gegevens correct te interpreteren, om te leren van deze gegevens, en om deze lessen te gebruiken om specifieke doelen en taken te verwezenlijken via flexibele aanpassing." Geleend uit de managementliteratuur, classificeren Kaplan en Haenlein artificiële intelligentie in drie verschillende types van AI-systemen: analytisch, mens-geïnspireerd en vermenselijkte artificiële intelligentie. Analytische AI heeft enkel eigenschappen die consistent zijn met cognitieve intelligentie die een cognitieve voorstelling van de wereld genereert en die leren gebruikt op basis van vorige ervaringen om toekomstige beslissingen te beïnvloeden. Mens-geïnspireerde AI bevat elementen van cognitieve en emotionele intelligentie, begrip, in aanvulling op cognitieve elementen, alsook menselijke emoties waarmee rekening wordt gehouden in het beslissingsproces. Vermenselijkte AI vertoont eigenschappen van alle types competenties (cognitieve, emotionele en sociale intelligentie), en is in staat zelfbewust te zijn in interacties met anderen.

Een vrij algemeen geaccepteerde test voor kunstmatige intelligentie is de turingtest, geformuleerd door de Engelse wiskundige Alan Turing, een van de vaders van de informatica. Deze komt erop neer dat als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, de computer intelligent moet zijn.

Deze visie kan tot het 'extreme' doorgevoerd worden, wat leidt tot het idee dat een kunstmatig intelligente entiteit het ultieme model van de mens is. In deze hoedanigheid heeft de AI veel te maken met de psychologie. Een andere visie is om alleen de 'goede' dingen van de mens te gebruiken en waar mogelijk dingen te verbeteren. Computers zijn in verschillende dingen, zoals wiskunde, een stuk beter dan mensen. Een menselijke intelligentie gecombineerd met de rekenkracht en opslagtechnieken van een computer overstijgt de menselijke intelligentie. Bij dergelijke artefacten is de mens als maat overduidelijk minder geschikt. Als dit het doel is dan relateert de AI zich weer meer met de informatica.

Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Zoals te lezen is zijn veel takken van de wetenschap gerelateerd aan de AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.

Artificiële intelligentie is allang niet meer alleen een onderwerp van onderzoek, maar iets dat steeds vaker in de praktijk wordt toegepast. Zo maakt het zoekalgoritme van Google steeds meer gebruik van AI, met technologieën als Hummingbird en RankBrain, en wordt ook in andere facetten van online marketing artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.

Turingtest

Zie Turingtest voor het hoofdartikel over dit onderwerp.

De turingtest komt erop neer dat als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, de computer intelligent moet zijn. Voor zo'n test moeten dan de omstandigheden zodanig worden gemaakt dat de proefpersoon niet ziet met wie hij praat, bijvoorbeeld door via een toetsenbord met iemand in een andere kamer te converseren. Een definitie van John McCarthy uit 1955 stelt dat het gaat om "een machine zich zo laten gedragen dat we dat intelligent gedrag zouden noemen als een mens zich zo gedroeg" in zijn "Proposal for the Dartmouth Summer Research Project On Artificial Intelligence" (1955), waarin de term voor het eerst opduikt.

Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd en zou meer dan tien maal zo krachtig zijn als bijvoorbeeld Microsofts Turing NLG. Een onderzoek uit september 2020 door Katherine Elkins en Jon Chun toont aan dat het algoritme van GPT-3 in sommige gevallen in staat is om de turingtest te doorstaan.

Het Chinese kamer-argument

Zie Chinese kamer voor het hoofdartikel over dit onderwerp.

Om een voorstelling te kunnen maken dat het niet nodig is een opdracht inhoudelijk te begrijpen om deze tot een goed einde te brengen, stelt John Searle zijn Chinese kamer gedachte-experiment voor. Dit houdt in dat je je voorstelt in een afgesloten kamer te zitten en dat je volgens een formeel instructieprogramma handmatig een output genereert aan de hand van een input. Dat je hiervoor de input niet hoeft te begrijpen, bewijst het feit dat deze input en output onder vorm van Chinese tekens gebeurt, zonder dat je enige kennis van het Chinees bezit. Dat de output dankzij het programma toch correct gebeurt, wordt aangetoond doordat wel Chineessprekenden de output inhoudelijk zinvol vinden. In het experiment worden in het Chinees geschreven vragen ter input aangeboden. De antwoorden die verkregen worden door het blindelings opvolgen van de instructies zijn dermate goed dat de proefpersoon niet doorheeft dat de antwoorden gegeven werden door iemand die totaal geen Chinees begrijpt.

Searle wil hiermee bewijzen dat dit geen intelligentie betreft: de gebruiker begrijpt immers zelf niets van de output. Een computer kan dus volgens Searle slagen voor de turingtest, maar toch niet intelligent zijn.

Een voor de hand liggend tegenargument is dat het in dit voorbeeld psychologisch haast onvermijdelijk is dat je je met de "persoon" in de kamer vereenzelvigt die geen Chinees begrijpt, maar dat dit onjuist is, getuigt het feit dat het totale systeem (de kamer plus inhoud, uitvoerend persoon plus programma), wel Chinees begrijpt.

Een tegenovergestelde vraag kan ook gesteld worden: wat moet de bewoner van de Chinese kamer doen om de buitenwereld duidelijk te maken dat hij géén computer is? Let wel: een "verkeerd" antwoord zal een buitenstaander alleen maar interpreteren als een programmafout of een fout in de werking van de computer.

Sterke en zwakke AI

Binnen de AI kan onderscheid gemaakt worden tussen "sterke AI" en "zwakke AI".

Sterke AI houdt zich bezig met onderzoek met betrekking tot het creëren van een computer of software die echt kan redeneren en problemen oplossen, en die wellicht zelfbewustzijn zou hebben; hiervan zijn weer twee subtypen te onderscheiden, namelijk de mens-gelijke AI, een computer die redeneert en denkt als een mens, en de niet-mens-gelijke AI, waarin de computer een niet-menselijke, maar eigen computer-intelligentie ontwikkelt.

Zwakke AI houdt zich bezig met onderzoek in beperkte deelgebieden waarin gedragingen mogelijk zijn die intelligent lijken, maar niet echt intelligent zijn. Hier zijn de meeste vorderingen gemaakt, in de vorm van bijvoorbeeld zoekalgoritmen en expertsystemen.

Er valt een argument te maken dat er geen onderscheid is tussen sterke en zwakke AI. Het kan namelijk gezien worden als twee uitersten op een schaal. Een conglomeratie van meerdere "zwakke AI" kan heel erg lijken op een "sterke AI". Bovendien, als het intelligent oogt en zich intelligent gedraagt … is het dan niet gewoon intelligent? Oftewel: is een "sterke AI" niet gewoon een zeer uitgebreide "zwakke AI"? Wederom speelt het probleem waarmee dit artikel begon: wat is intelligentie?

Of de sterke variant mogelijk is, blijft onderwerp van debat. De voorstanders zeggen dat aangezien de mens het ook met zijn hardware (namelijk het zenuwstelsel) doet, dit althans theoretisch in principe na te bootsen moet zijn in computerhardware. De tegenstanders beweren van niet, omdat de mens het volgens hen juist niet alleen met zijn hardware doet: wat een mens tot een mens maakt is meer dan hardware. De Engelse wiskundige Roger Penrose heeft betoogd dat het nabouwen/simuleren van menselijke hersenen principieel onmogelijk is op grond van de Onvolledigheidsstelling van Kurt Gödel maar zijn tegenstanders beweren dat dezelfde argumenten ook voor de hersenen zouden gelden en dat Penrose althans zichzelf toch wel intelligent vindt. Het argument van Lucas van J.R. Lucas maakt ook gebruik van de onvolledigheidsstelling van Gödel om te beredeneren dat mensen iets kunnen wat computers niet kunnen.

Een andere vraag is: als (sterke) kunstmatige intelligentie mogelijk is, is er dan een bovengrens aan de mogelijke intelligentie? Deze vraag wordt ontkennend beantwoord door de transhumanisten.

Het gebruik van algoritmen

Een algoritme is een procedure voor het oplossen van een probleem. In de discussie over AI wordt vaak ten onrechte gewezen op slimme algoritmen, die zelfs de menselijke intelligentie zouden kunnen "verslaan". Niets is minder waar: algoritmen zijn buitengewoon dom: ze doen namelijk precies wat er van hun gevraagd wordt (zo niet dan zou dat juist wijzen op sterke AI). Maar ze doen dat wel buitengewoon snel wat de illusie van "slim" zijn suggereert. Algoritmen zijn sterk in het snel verwerken van grote hoeveelheden data, zoals blijkt uit patroonherkenning door robots (zoals het stellen van diagnoses van ziektebeelden, zelfrijdende auto's, schaakcomputers, etc.). De bedenker van zo'n algoritme kan misschien wel slim zijn, maar hij is onvermijdelijk behept met de beperking dat hij niet kan garanderen dat zijn algoritme een oplossing is van zijn probleem als de context van het probleem niet scherp is te definiëren. Het referentiekader van zo'n algoritme is beperkt (zoals bv. bij het schaakspel). In het reële leven hebben mensen echter te maken met een veelheid van elkaar deels overlappende contexten binnen een breed referentiekader waarin de probleemstelling niet scherp te definiëren is. De kracht van menselijke intelligentie is juist dat mensen razendsnel van context kunnen wisselen, bv. tijdens een gedeeltelijke oplossing van een probleem. Dit is ook de basis voor paradigma-verschuivingen bij probleemoplossingen.

Patronen herkennen doen mensen en dieren voornamelijk onbewust, tenzij het patroon afwijkt van wat we verwachten. Die onbewuste werkwijze wijst op het uitvoeren van een algoritme in het neurale netwerk. Feitelijk worden alle handelingen die iemand automatisch, zonder er bij na te denken, doet, uitgevoerd door algoritmen in het centrale zenuwstelsel. Het bewustzijn wordt pas actief als het algoritme stagneert door een onverwachte gebeurtenis.

Sommige algoritmen kunnen leren, dat wil zeggen dat ze nieuwe patronen die ze nog niet kennen aan hun database kunnen toevoegen. Het gevaar bestaat dat zo'n nieuw patroon een vooroordeel versterkt. Een database vrijwaren van vooroordelen is buitengewoon lastig en vereist veel menselijke intelligentie. Hierdoor falen regelmatig allerlei algoritmen.

Onderzoeksgebieden binnen de AI

Kunstmatige intelligentie is een interdisciplinair vakgebied. Om functionele kunstmatige intelligentie te bereiken worden er technieken uit verschillende vakgebieden gebruikt. Deze vakgebieden variëren van informatica tot geesteswetenschappen. Een greep uit deze gebieden: patroonherkenning en beeldverwerking, cognitieve psychologie, logica, statistiek en linguïstiek. Voorbeelden van onderzoeksvragen zijn:

  • Het begrijpen van opdrachten die worden gegeven met betrekking tot een kamer waarin zich eenvoudige geometrische vormen (kubussen, piramides, etc) in verschillende vormen en kleuren bevinden, zoals "zet de rode piramide op de grote blauwe kubus".
  • Het simuleren van het gedrag van (veel) eenvoudiger dieren dan mens, bijvoorbeeld een mier, of een bodemaaltje, maar ook dat van een school vissen of een zwerm vogels (zwermintelligentie).
  • Het spelen van diverse denksporten, bijvoorbeeld schaken, dammen, checkers of Go. Checkers (dammen op een 8x8 bord) was het eerste niet-triviale denkspel waarvan begin jaren 60 al werd beweerd dat het door de computer opgelost was. Bij deze bewering zijn - althans waren in die tijd - een groot aantal kanttekeningen te plaatsen en de "algemeen bekende feiten" hierover zijn bijna allemaal onjuist: het programma versloeg eenmaal een redelijk bekwaam speler die geen meester of grootmeester was, en verloor de volgende 6 partijen. De decennialang onbetwiste wereldkampioen Marion Tinsley is kort voor zijn dood tweemaal verslagen door een checkersprogramma dat Chinook heet.
  • Het leren van een groot aantal feiten uit de echte wereld en het proberen daar door logische regels conclusies uit te trekken.
  • Het voeren van een gesprek waarbij de enige echte input van de menselijke gesprekspartner zelf komt, zonder dat die dat in de gaten heeft (rogeriaanse psychotherapie). Dit is een soort turingtest op een beperkt terrein, en het blijkt verrassenderwijs mogelijk een enorm aantal mensen, mits ze tevoren geen achterdocht koesteren, te misleiden: velen hebben al gevraagd even met de terminal alleen te worden gelaten om onder vier ogen met de computer te kunnen praten, "omdat hun gesprekspartner hen zo goed begrijpt".

Ook de benadering van het programmeerprobleem is zeer verschillend, van prescriptieve algoritmen tot logisch redenerende programma's tot zelflerende neurale netwerken. In dit leren maken we onderscheid tussen gecontroleerd leren, ongecontroleerd leren en versterkt leren.

AI in computerspellen

Bij videospellen wordt ook gesproken van een AI engine. Daarmee wordt de code bedoeld die de door de computer gestuurde tegenstanders van de menselijke speler aanstuurt. Het begrip AI engine wordt zowel gebruikt voor concurrenten van de menselijke speler in strategische spellen als Civilization als voor vijanden in schietspellen. Over het algemeen zijn de engines in de laatste spellen minder ontwikkeld of wordt simpelweg vervalst: moeilijkere vijanden zijn meestal simpelweg minder kwetsbaar, komen in grotere aantallen of hebben betere wapens, maar van intelligentie is nauwelijks sprake.

Dit gebrek aan intelligentie bij schietspellen wordt vooral veroorzaakt doordat het zeer lastig is om te bepalen wat nu 'goed' of 'slecht' is. Een computer AI kan bijvoorbeeld in het donker gaan staan zodat hij minder zichtbaar is, maar soms is het donkere gedeelte juist goed te beschieten vanaf bepaalde plekken. De AI kan tijdens een vuurgevecht afstand houden voor meer overzicht of juist dichterbij komen om de speler te overrompelen. Het is dus moeilijk om een AI te programmeren die aan dit soort problemen een 0 of een 1 kan plakken, oftewel een goed besluit kan nemen om door te lopen of terug te gaan. Simpelweg omdat het moeilijk te bepalen is, wat goed is voor de AI.

Bij strategische spellen zijn er veel numerieke variabelen in de 'game engine' waar een AI iets mee kan. Bijvoorbeeld: veel goudmijnen = veel geld. De programmeur programmeert de AI op zo'n manier dat als er weinig geld te besteden is de AI daarop reageert met het bouwen van meer goudmijnen. Dit heeft weer als gevolg dat hij een groot leger kan bouwen om de speler mee te verslaan. Het is dus veel makkelijker en duidelijker hoe je een AI moet programmeren zodat het een conflict met de speler kan winnen.

Er zijn ook technieken waarbij de programmeur minder werk heeft, zoals dynamic scripting, die een tegenstander 'leert' zich aan te passen aan de speler. In tegenstelling tot andere AI-gebieden wordt de intelligentie niet gemaximaliseerd: het doel is de tegenstander van ongeveer hetzelfde niveau te laten zijn als de speler, omdat het spelen tegen een te goede tegenstander niet als onderhoudend wordt ervaren. De tegenstanders beginnen volgens deze techniek dus met een matige speelsterkte, en groeien mee met het speelniveau van de speler.

Veelgebruikte technieken in computerspellen worden niet gebruikt in robots; het doel van kunstmatige intelligentie in computerspellen is om een realistische en plezierige belevenis voor de speler te creëren. Het is hiervoor vaak niet nodig om dezelfde mate van zelfstandigheid en rationaliteit in te bouwen in de bots zoals dat bij robots wel nodig is.

Onderzoek en onderwijs

In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.

Opleidingen aan universiteiten en hogescholen

Aan verschillende universiteiten en hogescholen wordt AI als studie aangeboden. In Nederland onder andere aan de Rijksuniversiteit Groningen, de Universiteit Utrecht (eerste opleiding in Nederland), de Universiteit van Amsterdam, de Vrije Universiteit, Tilburg University, de Radboud Universiteit Nijmegen en de Universiteit Maastricht. Vanaf het studiejaar 2018-2019 zal de Hogeschool Utrecht als eerste hbo-instelling de studie Applied Artificial Intelligence aanbieden. In Vlaanderen lopen programma's aan de Universiteit Antwerpen, de Katholieke Universiteit Leuven, de Universiteit Gent, en de Vrije Universiteit Brussel.

Academische organisaties

De Belgisch-Nederlandse Vereniging voor Kunstmatige Intelligentie (BNVKI) houdt zich bezig met academisch KI-onderzoek in België en Nederland. Op Europees niveau is dit de European Coordinating Committee for Artificial Intelligence (ECCAI), en in de Verenigde Staten de American Association for Artificial Intelligence (AAAI).

Tijdschriften

Organisaties en bedrijven

Een groeiend aantal non-profitorganisaties en commerciële bedrijven werken aan de ontwikkeling van kunstmatige intelligentie. Internationaal zijn vele daarvan toegetreden tot de coalitie Partnership on AI. In België is er AI4Belgium, in Wallonië het Réseau IA.

Overheid

In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).

Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie . De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die zal belast worden met de uitvoering van de wetgeving en het vastleggen van best practices.

Controverses

Diversiteit

Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs over justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen. De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.

Controleverlies

Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de risico's van de AI-ontwikkeling, zowel op korte termijn als meer fundamenteel, bijvoorbeeld door technologische singulariteit.OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.

Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, pleitten zelfs voor een volledige stopzetting van KI-experimenten en -ontwikkeliingen van geavanceerde taalmodellen. In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.

Werkgelegenheid

De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers. Ook IBM kondigde aan grotendeels te stoppen met het aanwerven van nieuwe medewerkers in functies die vervangen kunnen worden door KI en automatisering. Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.

Energieverbruik

Neurale netwerken zijn energie-intensieve systemen. Enkele ramingen:

  • "Eén trainingsronde van het ChatGPT 3.5-model kost ongeveer 500 ton CO2-uitstoot, wat overeenkomt met 1000 auto's die elk 1000 km rijden".
  • "ChatGPT gebruikt elke dag dezelfde hoeveelheid energie als 5.000 huizen."
  • "Sommige toepassingen van supercomputing zullen de energie van één kerncentrale nodig hebben."

Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen, of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).

Zie ook

Externe links

Zie de categorie Artificial intelligence van Wikimedia Commons voor mediabestanden over dit onderwerp.

Новое сообщение