Nieuw onderzoek suggereert dat het gebruik van een AI-tool om een bericht naar een vriend te schrijven misschien niet de beste optie is, vooral als de vriend erachter komt dat AI erbij betrokken is. Uit onderzoek blijkt dat deelnemers denkbeeldige vrienden die AI gebruikten om berichten te schrijven als minder authentiek beoordeelden dan vrienden die handmatig berichten schreven.
Bingjie Liu, hoofdauteur van het onderzoek en assistent-professor communicatie aan de Ohio State University, zei dat deze visie misschien begrijpelijk is, maar dat de impact ervan niet beperkt blijft tot de inhoud van de boodschap.
Liu Bingjie zei: "Nadat ze door AI ondersteunde informatie hebben ontvangen, zullen mensen zich minder tevreden voelen over hun relaties met hun vrienden en zich onzekerder voelen over hun positie."
Maar om eerlijk te zijn tegenover AI: het is niet alleen het gebruik van de technologie dat mensen afschrikt. Uit het onderzoek bleek ook dat er ook negatieve effecten waren als mensen hoorden dat hun vrienden hulp van anderen hadden gekregen bij het schrijven van hun berichten. Mensen willen dat hun partner of vriend de moeite neemt om de boodschap zelf uit te schrijven, zonder de hulp van kunstmatige intelligentie of andere mensen.
Het onderzoek is onlangs online gepubliceerd in het Journal of Social and Personal Relationships.
Liu zei dat naarmate AI-chatbots zoals ChatGPT populairder worden, de vraag hoe ze te gebruiken relevanter en complexer zal worden. Bij het onderzoek waren 208 volwassenen betrokken die online deelnamen. Aan de deelnemers werd verteld dat ze al jaren bevriend waren met een man genaamd Tyler. Ze kregen te horen dat er drie scenario’s waren: ze hadden een burn-out en hadden ondersteuning nodig; ze waren in conflict met collega's en hadden advies nodig; of hun verjaardag kwam eraan.
Vervolgens werd de deelnemers verteld dat ze een kort bericht aan Taylor moesten schrijven waarin ze hun huidige situatie beschreven in een tekstvak op het computerscherm.
Alle deelnemers kregen te horen dat Taylor hen een reactie zou sturen. Tijdens deze scenario's schreef Taylor een eerste versie. Sommige deelnemers kregen te horen dat Taylor een kunstmatig intelligentiesysteem had om de boodschap te helpen herzien om de juiste toon te bereiken, anderen kregen te horen dat een lid van de schrijversgemeenschap hielp met herzieningen, en een derde groep deelnemers kreeg te horen dat Taylor alle herzieningen van de boodschap deed.
In elk geval beoordeelden de deelnemers aan de studie Taylor's antwoorden hetzelfde, inclusief 'attent'. Toch hadden de deelnemers aan het onderzoek gemengde gevoelens over de berichten die ze zeiden te hebben ontvangen over Taylor. Degenen die door AI ondersteunde reacties ontvingen, vonden wat Taylor had gedaan minder gepast en ongepast dan degenen die reacties ontvingen die alleen door Taylor zelf waren geschreven.
AI-reacties leidden er ook toe dat deelnemers minder tevreden waren over hun relatie, zoals Taylor lager beoordelen bij het voldoen aan 'mijn behoeften als goede vriend'. Bovendien waren mensen die de AI-ondersteunde antwoorden ontvingen in het onderzoek onzekerder over hun relatie met Taylor en minder zeker over de uitspraak 'Taylor vindt mij leuk als een goede vriend'.
Een mogelijke reden waarom mensen niet van AI-ondersteunde antwoorden houden, is dat mensen denken dat het ongepast en inferieur aan mensen is om technologie te gebruiken om dergelijke persoonlijke informatie te verkrijgen. Maar de resultaten lieten zien dat mensen even negatief reageerden als Taylor een ander mens – een lid van een online schrijfgemeenschap – vroeg om te helpen bij het schrijven van de boodschap.
Uit het onderzoek bleek dat mensen vinden dat vrienden geen derde partij (kunstmatige intelligentie of andere mensen) mogen gebruiken om hun relatie in stand te houden. De reden was dat deelnemers geloofden dat Taylor minder moeite aan hun relatie besteedde door te vertrouwen op kunstmatige intelligentie of andere mensen om de boodschap samen te stellen.
Hoe lager de deelnemers de pogingen van Taylor om AI of andere mensen te gebruiken beoordeelden, hoe minder tevreden ze waren met hun relatie en hoe onzekerder ze waren over de vriendschap.
"Inspanning is erg belangrijk in een relatie", zei Liu. "Mensen willen weten hoeveel je bereid bent te investeren in je vriendschap, en als ze het gevoel hebben dat je bezuinigt door AI te gebruiken om te helpen, is dat niet goed."
Natuurlijk zullen de meeste mensen hun vrienden niet vertellen dat ze AI hebben gebruikt om hun berichten te schrijven, maar ze merkte op dat naarmate ChatGPT en andere diensten in populariteit toenemen, mensen Turing-tests in hun hoofd kunnen gaan uitvoeren terwijl ze berichten van vrienden en anderen lezen. De term ‘Turing-test’ wordt soms gebruikt als mensen willen weten of ze kunnen bepalen of een handeling door een computer of door een mens is uitgevoerd.
Mensen kunnen dit soort Turing-testen in het geheim in hun hoofd uitvoeren, in een poging erachter te komen of er een element van kunstmatige intelligentie in de informatie zit. Dit kan relaties schaden.
Het antwoord is om je werk in relaties te doen, zei ze. "Gebruik technologie niet alleen omdat het handig is. Oprechtheid en authenticiteit zijn nog steeds erg belangrijk in relaties."