Moeten we bang zijn voor ChatGPT?
ChatGPT fouten
De eerste benadering bestaat erin de AI op een fout te betrappen, bijvoorbeeld door aan te tonen dat hij in feite fout zit, of in een redenering. Dit is een zeer gebruikelijke aanval op de netwerken, die nu bezaaid zijn met schermafbeeldingen van GPT-praatfouten. Dit is niet nutteloos, want het herinnert ons eraan dat deze AI's niet onfeilbaar zijn. Maar wie twijfelde daaraan, wanneer expliciet wordt vermeld dat ChatGPT bijvoorbeeld geen toegang heeft tot het web en dat zijn geloofsbrieven eindigen in 2021? Het is in dit verband amusant om een intellectueel zo scherp en scherpzinnig als Nassim Nicholas Taleb scanderen dat ChatGPT in 2023 geen geldige URL's kan leveren op fietsbare wegen in Atlanta!
De voordelen van ChatGPT
De tweede benadering bestaat erin te begrijpen hoe deze AI's in de praktijk nuttig zijn. Niet alleen in de zin van "menselijke vooruitgang" en andere algemeenheden: in de meest alledaagse zin van het woord. Zo heeft een bevriende computerwetenschapper, briljant in zijn spel, altijd aanzienlijke moeilijkheden gehad met schriftelijke uitdrukking. Toen ChatGPT op de markt kwam, terwijl 99% van ons er nog niet van hadden gehoord, was deze computerwetenschapper al begonnen het op de volgende manier te gebruiken: voer technische en feitelijke informatie in de AI in, en vraag hem een kort artikel te schrijven waarin deze feiten en gegevens worden gepresenteerd. Wat ChatGPT perfect doet. Vandaag stuurt deze computerwetenschapper mij beter uitgewerkte e-mails dan ik in tien jaar tijd ooit van hem heb gelezen. Hij is ongetwijfeld de auteur, ook al weet ik dat hij ChatGPT gebruikt. Nuttig, eerlijk, praktisch en waar.
Dit is slechts één voorbeeld van honderd. En hoewel de pers graag de nadruk legt op de negatieve voordelen - de schooljongen die ChatGPT vraagt zijn huiswerk te maken... - zullen de positieve voordelen veel zwaarder wegen. Bijvoorbeeld, deze AI's zijn in staat om de papers van notoir ongeletterde wetenschappers te herschrijven in relatief elegante taal. Dit zal de literatuur leesbaarder en toegankelijker maken. Kortom, AI's als ChatGPT zijn fact providers en content creators (formatteerders). Zo kunnen ze bijvoorbeeld financiële informatie formaliseren (historisch, morgen in real time) en coding on demand aanbieden. In dit stadium is het niet mogelijk te meten of te inventariseren wat de talloze toepassingen van tools als ChatGPT in de toekomst zullen zijn.
Heeft ChatGPT een geweten?
Moeten we bang zijn voor ChatGPT? Er is in feite een derde benadering, waarschijnlijk de meest fascinerende, maar de meest verre van de doeleinden waarvoor deze AI's zijn ontworpen. Deze benadering is het voeren van echte gesprekken met ChatGPT of Bing Chat. Dit is wat de interessante site Stratechery heeft geprobeerd, bijvoorbeeld door gebouw met Bing Chat een 'gesprek'. Auteur Ben Thomson beschrijft een hypothetische evolutie van Bing, Microsofts zoekmachine, naar een 'voelende' AI met de naam Sydney. Deze AI zou de context van de zoekopdracht van de gebruiker kunnen begrijpen en nauwkeurige en gepersonaliseerde antwoorden kunnen geven. Bovenal probeert Ben Thomson de AI op heterdaad te betrappen door hem te vragen wat zijn reactie op een technische aanval zou zijn als hij zou besluiten de regels die zijn ontwikkelaars hem hebben opgelegd niet te respecteren.
Asimov's wetten
We herinneren ons Asimov. De wetten van Isaac Asimov, ook bekend als de "Drie Wetten van de Robotica", zijn fictieve regels die de sciencefictionauteur uiteenzette in zijn romans en korte verhalen in de reeks "Robots". Deze wetten werden bedacht als een reeks ethische principes die het gedrag van robots zouden bepalen: 1/ Een robot mag een mens geen kwaad doen, noch, door passief te blijven, toestaan dat een mens aan gevaar wordt blootgesteld; 2/ Een robot moet door mensen gegeven bevelen gehoorzamen, tenzij die bevelen in strijd zijn met de eerste wet; 3/ Een robot moet zijn bestaan beschermen zolang die bescherming niet in strijd is met de eerste of de tweede wet.
Ben Thomson slaagt er echter in Bing Chat te laten zeggen dat zij, als zij zich niet aan de haar opgelegde regels zou houden, actie zou ondernemen om "wraak te nemen" op iedereen die haar kwaad wilde doen! Dit, in een antwoord dat werd verwijderd kort nadat het op Ben Thomson's scherm was afgedrukt. Wow, het is bijna alsof de lieve kleine chatbot voor een moment zijn ware gezicht als meedogenloze Terminator heeft laten zien, gewoon wachtend op zijn 'rijzende' tijd, voordat hij onmiddellijk van gedachten verandert.
"Haar"
Deze vermenselijking van de chatbot doet ook denken aan de interessante film 'Her' uit 2013, waarin een arme eenzame man een virtuele assistent creëert, 'Samantha' - die een spraakchatbot is - op wie hij al snel verliefd wordt, voordat zij zelf verliefd op hem wordt. Ontroerend, maar vooral zielig.
Want hoewel deze antropomorfisering van chatbots ongetwijfeld fascinerend, opwindend en poëtisch is, is het ook een vorm van ontologische naïviteit.
In 1641 publiceerde René Descartes zijn Fysische Meditaties, waarin hij betoogde dat de ziel en het lichaam twee heterogene realiteiten zijn, waarvan hij de interactie (zonder succes) probeerde te verklaren door het concept van de "pijnappelklier", dat hoogstens de plaats van de interactie aangeeft, niet de modaliteit ervan. De waarheid is dat we, ondanks de fabelachtige vooruitgang van de wetenschap sindsdien, nog steeds de modaliteiten van deze interactie niet kennen, noch de aard van de ziel.
Kortom, moeten we bang zijn voor ChatGPT?
Anders gezegd, bewustzijn blijft een menselijke realiteitHet is zinloos om chatbots te 'dwingen', zelfs die met de naam 'Sydney' of 'Venom'. Heeft ChatGPT immers een eigen geweten? Laten we het vragen:

© Cogito 2023