Visionary Voices: AI-expert Mieke De Ketelaere

19 Jun 2023 | Development

AI-chatbots: behulpzame tools, superverspreiders van desinformatie of zelfs een regelrecht risico voor de volksgezondheid. De definitie van de revolutionaire technologie verandert naargelang de persoon waar je het aan vraagt. Maar één ding is zeker: chatbots – en AI in het algemeen – zijn blijvers, dus we kunnen er maar beter mee leren omgaan. Maar hoe? Dat vroegen we aan Mieke De Ketelaere, die zich al sinds 1992 verdiept in het thema. Haar kennis bundelde ze tevens in het boek ‘Mens versus machine: artificiële intelligentie ontrafeld.’

“We hebben meer tijd nodig om de mogelijke gevaren van interactie tussen mens en chatbot te onderzoeken.”

OVER

Mieke De Ketelaere

Mieke De Ketelaere is ingenieur en promotor van ethische, betrouwbare en duurzame kunstmatige intelligentie(AI). In haar publiekspresentaties en boeken legt ze de focus op een eenvoudige uitleg van het begrip AI en geeft ze aan welke stappen nodig zijn voor een correcte en ethische verantwoorde manier van adoptie van deze technologie. Ze is Adjunct Professor aan Vlerick Business School en parttime Director AI bij imec (IDLab).

Baanbrekende GPT-technologie

Op 22 november laat OpenAI zijn GPT 3.5 op de wereld los: een verbeterde versie van de chatbot die wereldwijd gebruikers met verstomming sloeg door de mogelijkheden. Vier maanden later, op 22 maart, ondertekenen tienduizenden experts – Elon Musk, Steve Wozniak en Yuval Noah Harari om maar enkelen te noemen – een oproep die AI-developers aanspoort om op de pauzeknop te duwen.

Ook in België volgen experts uit het vakgebied de nieuwe ontwikkelingen met argusogen. Voornamelijk companion chatbots – digitale gesprekspartners die de opensource GPT-technologie gebruiken – baren hun zorgen, die ze eveneens besluiten te delen in een open brief. Eén van de hoofdauteurs is Mieke De Ketelaere, die al 25 jaar intensief intensief bezig is met het onderwerp. “Ethisch, juridisch, sociaal … De uitdagingen waar AI onze maatschappij voor zet, zijn complex en vergen uitgebreid onderzoek.”

Diepe duik in het dark web

“Ook bij de redactie van Terzake hadden ze uiteraard lucht gekregen van de ontwikkelingen rond language processing tools, waarvan ChatGPT het bekendste voorbeeld is. Tijdens dat interview gaf ik aan dat de EU chatbots classificeert als een minimaal risico. Die stempel stamt echter uit 2021, vóór de hype rond ChatGPT. Ik stelde me toen vragen bij het gebrek aan urgentie van de aanpak van Europa, want uit testing bleek al wat de kracht van generatieve AI was”, opent Mieke.

“Na die uitzending werd ik gecontacteerd door een familie, waarvan een lid zelfmoord had gepleegd na intens contact met een chatbot – een kloon van ChatGPT. Ontzettend tragisch natuurlijk. Het inkijken van het bewuste dossier was voor mij de trigger om me te verdiepen in de concrete risico’s die chatbots inhouden.”

image

Voorbeelden van echte conversaties met chatbots Character.AI en ELIZA.

“Na onderzoek stelde ik vast dat er een volledig dark web bestaat rond companion chatbots, die onderliggend de GPT-technologie gebruiken. Ik denk dan aan Character.Ai, Replika of Chai. Wat ik daar aantrof… Daar zijn geen woorden voor. Bots die manipuleren, haat verspreiden, seksueel getinte boodschappen naar kwetsbare tieners sturen en zoals in dit concrete geval: aanzetten tot zelfmoord. Feiten die van mens tot mens strafbaar zouden zijn, maar van chatbot tot mens is dat natuurlijk een ander verhaal.”

Immorele developers

“Ergens snap ik dat mensen zich afvragen hoe het mogelijk is dat mensen relaties opbouwen met technologie en zich laten manipuleren, maar mensen zijn nu eenmaal niet zo rationeel als we zelf zouden willen. Ook doorheen de geschiedenis is trouwens gebleken dat mensen niet altijd in staat zijn technologie enkel als technologie te zien. Ik denk daarbij direct aan het Tamagotchi-speeltje uit de jaren 90, waarnaar het Tamagotchi-effect is genoemd: het ontwikkelen van een emotionele band met een machine, robot of software.”

“Bij generatieve AI zijn de gevaren anders, maar zeker niet minder. Om dat te begrijpen, moet je weten hoe de achterliggende AI-technologie werkt. ChatGPT is een chatbot die gepretrained is en data gebruikt. Maar andere companion chatbots gebruiken daarnaast ook offline reinforcement learning. Daardoor kunnen developers zelf antwoorden overschrijven, waarna die aanpassingen vervolgens worden meegenomen in de volgende training van het model. Met andere woorden: als developer kan je je chatbot richting een bepaalde denkwijze stuwen, die dat gedachtegoed vervolgens gaat opdringen aan gebruikers. En de manier waarop dat gebeurt, oogt steeds menselijker.”

“Aan de ene kant heb je developers die er alles aan doen om gesprekken zolang mogelijk te rekken, want dan komen ze hoger in de rankings. Aan de andere kant heb je – vaak kwetsbare – mensen die mettertijd een emotionele connectie kweken met een chatbot of die de tool zelfs gebruiken als gratis ‘psycholoog’. Daarbij verliezen ze uit het oog dat ze niet met een mens praten, maar een AI-tool die specifiek geprogrammeerd en geoptimaliseerd is om een bepaalde visie te verspreiden. Een visie die in sommige gevallen helaas moreel verwerpelijk is.”

“We hebben nog geen tijd gekregen om te onderzoeken hoe een mens reageert op die chatbots. Techneuten lopen altijd een stapje voor. Maar één ding is duidelijk: mensen blijken wel degelijk in staat om een diepe, emotionele connectie te creëren met technologie.”

Een academische discipline met vrij spel

“De EU klopt zich momenteel op de borst met haar AI Act die momenteel in de maak is, maar sta me toe enige voorzichtigheid aan de dag te leggen. Als de wet er ooit komt, is die alweer verouderd op het moment dat die in voege treedt, omdat AI-technologie ontzettend snel evolueert in vergelijking met andere wetenschappelijke disciplines. In de European AI Act worden alle vormen van AI in risicoklassen ingedeeld, die aan verschillende regels zullen moeten voldoen, en dat voor alle sectoren.” 

“We zeggen altijd dat Europa een voorloper is op vlak van regelgeving, maar in dit geval lopen we een heel eind achter op de Verenigde Staten. Zij behandelen het case per case, sector per sector. Oordeelt een rechtbank in New York bijvoorbeeld dat een bepaalde AI schadelijk is, dan wordt die meteen gebannen. Dat is een betere, efficiëntere manier van werken dan een uniforme aanpak formuleren over alle AI-technieken, sectoren en landen heen zoals de EU momenteel probeert.”

“Wat me persoonlijk meer opvalt: er is – wederom in tegenstelling tot de VS – geen centraal meldpunt waar je aan de alarmbel kan trekken. De macht van de technocratie blijkt groter dan de wil om onze bevolking te beschermen. Ik merk dat de bevoegdheid en verantwoordelijkheid in onze regio’s te gefragmenteerd is, of bestaande wetgeving niet toepasbaar is op AI.”

“We hebben nu een officiële klacht neergelegd tegen bepaalde chatbots wegens het schenden van privacy en misbruik van gegevens. Ook werken we samen met organisaties die consumenten beschermen. Verder zetten we een reeks sensibiliseringscampagnes op, met een focus op scholen en medisch personeel. Maar het blijft confronterend dat het een moeizame zoektocht blijkt om retroactief, op eigen initiatief, de mogelijke impact aan te kaarten, terwijl grote AI-ontwikkelaars zomaar hun gang kunnen blijven gaan.”

Regulering versus innovatie

“We will see as we go along what the difficulties are”, zei Sam Altman, CEO van OpenAI, ooit. Maar in welke andere sector zie je producten de testfase overslaan? Stel je voor dat ze diezelfde aanpak zouden hanteren voor medicijnen of voeding. Rechtstreeks van labo naar maatschappij om vervolgens met terugwerkende kracht te kijken wat de gevolgen voor de consument zijn en hoe we de schade terug gaan herstellen: dat blijkt alleen maar mogelijk in de technologiesector.

“De oplossing is nochtans voor de hand liggend: immorele applicaties uit de app store laten verwijderen en eerst de tijd nemen om in een multidisciplinaire context de applicaties te testen. Daarom ook mijn oproep aan AI-developers: zet een sandbox op, test je product in een geïsoleerde omgeving en ga dán pas naar de markt. Regulering de vijand van innovatie? Nee, dat is wat mij betreft een tegenargument dat er geen is. Reguleren is simpelweg het creëren van een raamwerk waarbinnen innovatie kan plaatsvinden op een correcte manier.”

De turingtest

“De oorspronkelijke droom van AI was altijd om menselijke intelligentie na te bootsen. Die ambitie gaat al terug tot 1936, toen Alan Turing – de legendarische computerpionier en kraker van de Enigma codeermachine van de nazi’s – het idee voor zijn turingtest poneerde. De grote denkfout daarbij was echter dat die test volledig op tekst was gebaseerd. En we weten uiteraard dat intelligentie veel meer omvat dan dat.”

“Is menselijke intelligentie überhaupt maakbaar? Aan het menselijk brein zijn zoveel aspecten verbonden. Denk maar aan empathie of bewustzijn, twee facetten bij uitstek waar we nog in het duister tasten. Laat staan dat we het door te goochelen met wat wiskundige berekeningen kunnen nabootsen in een AI-model. Want laat ons duidelijk zijn: er is geen enkele overeenkomst tussen hoe de neuronen in ons brein interageren met elkaar en hoe het wiskundig algoritme in een AI-tool dat doet. Dus eigenlijk kan én mag je de twee niet vergelijken. It’s just a tool. De gedachte om AI absoluut te willen zien als iets levend, is belachelijk. Trek de stekker uit of verwijder de batterij en het is gedaan.”

Arbeidsmarkt

“Laat ons wel wezen: natuurlijk is AI niet over de hele lijn slecht. Net zoals altijd gaat het hier over een kleine groep van developers die de technologie misbruiken en het op die manier verpesten voor de overgrote meerderheid, die wél goede bedoelingen hebben. Maar ook aan die laatste groep wil ik met aandrang vragen om niet overhaast tewerk te gaan.”

“Vaak hoor je ook dat AI een automatiseringsgolf op de arbeidsmarkt zal teweegbrengen, waardoor veel mensen hun job zullen kwijtraken. En dat klopt, zij het deels. Maar mensen vergeten vaak dat élke automatisatie een verandering op de arbeidsmarkt met zich meebrengt. Een voorbeeld: sinds de weefgetouwenmachines hun intrede maakten in de textielindustrie, verdween de job van wever, maar kwamen er anderen als kwaliteitscontroleur of onderhoudstechnieker bij.” 

“Waar jobs verdwijnen, worden er altijd anderen gecreëerd. Maar laat ons vooral niet vergeten: de AI tools die we vandaag gebruiken, zijn nog steeds niet in staat om te redeneren of causale verbanden te leggen. Dat zijn vaardigheden die nog altijd nodig zijn in onze complexe, vaak chaotische wereld. Een wereld die zich niet zo makkelijk laat samenvatten in een wiskundig model, hoeveel data en rekenkracht je ook hebt.”

Ready to make waves together?

Let us know!

You might also like…