ChatGPT legt geïnterviewde woorden in de mond

Je kunt zeggen dat een interview mensenwerk is, en ik wil dat ook heel graag, maar de interviewende schrijver kan eigenlijk niet meer heen om de vraag wat kunstmatige intelligentie gaat betekenen voor het vak.
Een stemmetje van binnen zegt me dat opdrachtgevers het op dit moment nog te ver vinden gaan om de ander voor te stellen zich te laten interviewen door een kunstmatig intelligente entiteit. Een interviewverzoek voelt voor menigeen als erkenning: mijn deskundigheid wordt gewaardeerd, men ziet mij staan. De mededeling ‘uw interviewer is een computerprogramma’ kan de beoogde geïnterviewde dan allicht rauw op het dak vallen. Maar nieuwe realiteiten wennen snel – denk aan de snelheid waarmee het interview via het beeldscherm gemeengoed is geworden.

Of AI kán interviewen, daar twijfel ik niet aan. Recent zag ik op X een post waarin ChatGPT werd gevraagd om Ajax-trainer Francesco Farioli, die in interviews hardnekkig weigerde het woord ‘landstitel’ te gebruiken, op zo’n listige manier te bevragen dat hij haast niet anders kon. En ik moet zeggen: sommige suggesties, daar was ik zelf niet op gekomen. Dus waar het interview an sich op dit moment misschien nog een brug te ver is, kan AI de interviewer in ieder geval op weg helpen – zeker met de wat taaiere interviewklant.

Hoe brengt AI het er intussen af als schrijver?
Ik was het al een tijdje van plan, had het verschillende keren uitgesteld, maar voerde onlangs toch de transcriptie van een interview aan ChatGPT met de opdracht er een publicabel verhaal van te maken. Het interview draaide om de steeds zwaardere rol van interne toezichthouders – raden van toezicht en raden van commissarissen – en de invloed die dat heeft op het werk van de bestuurssecretaris. Niet iets waarvan je zegt ‘schat, dit móet je lezen voor het slapengaan’, maar secretarissen smullen ervan.

Hoe, zult u vragen, bracht ChatGPT het ervan af?

Goed en slecht tegelijk.

Het goede was: er verscheen een verhaal van de afgesproken 1500 woorden, met een kop, een heel behoorlijk intro en tussenkoppen. Als je geïnteresseerd bent, zou je het lezen en waarschijnlijk het einde ook halen. Als je niet bent geoefend in het herkennen van door AI geschreven teksten, zou je wellicht niet merken dat je gevoerd wordt door een robot.

Het minder goede valt eigenlijk alleen op als je zélf bij het gesprek bent geweest. Het was opvallend hoe veel vrijheid ChatGPT zich veroorloofde bij het gebruiken van de aangeleverde brontekst.

Neem de kop. ‘De bestuurssecretaris: jongleur tussen bestuur en toezicht’. Tussen aanhalingstekens, dus een citaatkop. Ik zelf zou niet snel deze kop maken, nogal obligaat, maar alla. Wat vooral opviel, was het gebruik van het woord jongleur. Dat hele woord was tijdens het interview niet gevallen, en hier stond het, in de kop nog wel, tussen aanhalingstekens.

In de brontekst stond, ergens aan het einde, een losse opmerking die ik niet in het interview had gebruikt. ‘Een op de vijf mensen is hoogsensitief. Ik heb wel eens gedacht: in de beroepsgroep secretarissen is dat echt wel meer.’

ChatGPT koos ervoor om dit citaat te gebruiken als uitsmijter voor het verhaal. Hier zei de geïnterviewde ineens: ‘Eén op de vijf mensen is hoogsensitief. Ik heb het idee dat dat aandeel bij secretarissen nog hoger ligt. Ze voelen spanningen, pikken signalen op, schakelen tussen belangen. Misschien is het wel een voorwaarde om dit werk goed te kunnen doen.’

Allemaal waar, maar je vraagt je toch af wat hier is gebeurd. Blijkbaar vond ChatGPT het citaat wat mager, is zelf aan het zoeken gegaan naar wat hoogsensitiviteit inhoudt, heeft er nog een conclusie aan verbonden en die de geïnterviewde in de mond gelegd.

Nou zijn dit twee voorbeelden, maar in het hele verhaal waren er zo tientallen, de een erger dan de ander, maar toch. Ik moest denken aan een interview, heel lang geleden, dat ik afnam samen met een collega van de redactie waar ik toen werkte. Die collega schreef uiteindelijk het verhaal. Ik las het resultaat en zei verbaasd: ‘Dat heeft die man toch helemaal niet gezegd?’ ‘Nee’, zei mijn collega, ‘maar hij heeft het wel bedoeld’.

In de interactie met ChatGPT is zulks allemaal heel makkelijk te voorkomen. Je kunt je AI-assistent vooraf zeggen dat hij/zij/het/hen de aangeleverde citaten alleen letterlijk mag gebruiken, je kunt zeggen dat het allemaal wat minder oppervlakkig mag, je kunt ChatGPT vragen om jou vragen te stellen over wat je verwacht, noem maar op. Waar het om gaat, is de vrijheid die het algoritme blijkbaar biedt. Die is opvallend. Het is of je een aannemer vraagt om een keuken te plaatsen met een gasfornuis en een vaatwasser, en die aannemer maakt er een inductiefornuis van en doet er ongevraagd een afzuiger bij.

Tot slot: heel menselijk was de wachtervaring. ‘Dat is heel goed bronmateriaal’, meldde ChatGPT complimenteus toen de opdracht eenmaal was gegeven en de brontekst ingevoerd. Gevolgd door een monter: ‘Ik ga voor je aan de slag, tot zo!’

Toen het antwoordveld na een half uur nog steeds leeg was, typte ik een korzelig ‘komt er nog wat van’, en prompt begon er tekst in het antwoordveld te verschijnen, regel na regel. Inderdaad: dat is de baas die je iets vraagt, en jij denkt ja ja, jij komt straks aan de beurt, eerst afmaken waar ik nu mee bezig ben. Zulk gedrag is te vergeven. Dat geklooi met die citaten eigenlijk niet.

Lars Kuipers is associé van S&V.

Nieuwsarchief