AI – Technologie bracht vroeger alleen onze berichten over. Nu wil het ze voor ons schrijven door onze emoties te begrijpen.
AI – IN MEI 2021 introduceerde Twitter, een platform dat berucht is vanwege misbruik en koppigheid, een ‘prompts’-functie die gebruikers suggereert twee keer na te denken voordat ze een tweet sturen. De maand daarop kondigde Facebook AI-‘conflictwaarschuwingen’ aan voor groepen, zodat beheerders actie kunnen ondernemen als er ‘controversiële of ongezonde gesprekken plaatsvinden’. Slimme antwoorden op e-mail en berichten maken elke dag miljarden zinnen voor ons af.
Amazons Halo , gelanceerd in 2020, is een fitnessband die de toon van je stem controleert. Wellness is niet langer alleen het volgen van een hartslag of het tellen van stappen, maar de manier waarop we overkomen op de mensen om ons heen. Er worden algoritmische therapeutische hulpmiddelen ontwikkeld om negatief gedrag te voorspellen en te voorkomen.
Jeff Hancock, hoogleraar communicatie aan Stanford University, definieert AI-gemedieerde communicatie als “een intelligente agent handelt namens een communicator door berichten te wijzigen, aan te vullen of te genereren om communicatiedoelen te bereiken.” Deze technologie wordt volgens hem al op grote schaal ingezet.
Onder dit alles schuilt de groeiende overtuiging dat onze relaties slechts een klein duwtje in de rug zijn van perfectie. Sinds het begin van de pandemie zijn steeds meer van onze relaties afhankelijk van computergestuurde kanalen. Kunnen algoritmen ons helpen aardiger voor elkaar te zijn, te midden van een kolkende oceaan van online ruzies, giftige Slack-berichten en oneindige Zoom? Kan een app onze gevoelens beter lezen dan wij? Of doet het uitbesteden van onze communicatie aan AI afbreuk aan wat een menselijke relatie menselijk maakt?
Je zou kunnen zeggen dat Jai Kissoon opgroeide in het familierechtssysteem. Of in ieder geval eromheen. Zijn moeder, Kathleen Kissoon, was advocaat op het gebied van familierecht, en toen hij een tiener was, hing hij rond op haar kantoor in Minneapolis, Minnesota, en hielp hij met het verzamelen van documenten. Dit was de tijd vóór de ‘mooie kopieermachines’, en terwijl Kissoon door de eindeloze stapels papier schuifelde die door de gangen van een advocatenkantoor dwarrelden, hoorde hij verhalen over de vele manieren waarop gezinnen uit elkaar konden vallen.
In die zin is er niet veel veranderd voor Kissoon, medeoprichter van OurFamilyWizard, een plannings- en communicatietool voor gescheiden stellen en paren met co-ouderschap die in 2001 werd gelanceerd. Het was het concept van Kathleen, terwijl Jai het bedrijfsplan ontwikkelde en OurFamilyWizard aanvankelijk lanceerde als een website.
Het trok al snel de aandacht van degenen die in het rechtssysteem werkten, waaronder rechter James Swenson, die in 2003 een proefprogramma uitvoerde met het platform bij de familierechtbank in Hennepin County, Minneapolis. Het project kostte 40 van wat Kissoon zegt dat het de “ de meeste hardcore families”, zette ze op het platform – en “ze verdwenen uit het rechtssysteem.” Toen iemand uiteindelijk – twee jaar later – voor de rechter belandde, was dat nadat een ouder ermee was gestopt.
Twintig jaar later wordt OurFamilyWizard door ongeveer een miljoen mensen gebruikt en door de rechtbank in de VS goedgekeurd. In 2015 werd het gelanceerd in het Verenigd Koninkrijk en een jaar later in Australië. Het is nu in 75 landen; soortgelijke producten zijn onder meer coParenter, Cozi, Amicable en TalkingParents.
Brian Karpf, secretaris van de American Bar Association, Family Law Section, zegt dat veel advocaten apps voor co-ouderschap nu als standaardpraktijk aanbevelen, vooral als ze een ‘huiveringwekkend effect’ willen hebben op de manier waarop een stel communiceert. Deze apps kunnen intimidatie afschrikken en het gebruik ervan in de communicatie kan door de rechter worden bevolen.
In een poging om beleefdheid aan te moedigen, is AI een steeds prominenter kenmerk geworden. OurFamilyWizard heeft een ‘ToneMeter’-functie die sentimentanalyse gebruikt om berichten te monitoren die via de app worden verzonden – ‘iets dat een rendementsteken geeft’, zegt Kissoon. Sentimentanalyse is een subset van natuurlijke taalverwerking, de analyse van menselijke spraak. Deze algoritmen zijn getraind op grote taaldatabases en splitsen tekst op en beoordelen deze op sentiment en emotie op basis van de woorden en zinnen die erin voorkomen.
Als in het geval van de ToneMeter een emotioneel geladen zin in een bericht wordt gedetecteerd, wordt een reeks signaalsterktebalken rood en worden de probleemwoorden gemarkeerd. ‘Het is jouw schuld dat we te laat waren’, kan bijvoorbeeld als ‘agressief’ worden bestempeld. Andere uitdrukkingen kunnen worden gemarkeerd als ‘vernederend’ of ‘verontrustend’. Het is aan de gebruiker of hij nog steeds op Verzenden wil drukken.
ToneMeter werd oorspronkelijk gebruikt in de berichtendienst, maar wordt nu gecodeerd voor alle uitwisselingspunten tussen ouders in de app. Shane Helget, Chief Product Officer, zegt dat dit binnenkort niet alleen negatieve communicatie zal ontmoedigen, maar ook positief taalgebruik zal aanmoedigen.
Hij verzamelt inzichten uit een breed scala aan interacties met de visie dat de app kan worden gebruikt om ouders proactief aan te sporen zich positief tegenover elkaar te gedragen, ook buiten reguliere gesprekken. Er kunnen herinneringen zijn om schema’s van tevoren door te geven, of aan te bieden om data te ruilen voor verjaardagen of feestdagen – gebaren die misschien niet nodig zijn, maar wel goed ontvangen kunnen worden.
CoParenter, gelanceerd in 2019, maakt ook gebruik van sentimentanalyse. Ouders onderhandelen via sms en er verschijnt een waarschuwing als een bericht te vijandig is, net zoals een menselijke bemiddelaar zijn cliënt het zwijgen oplegt. Mocht het systeem niet tot overeenstemming leiden, dan bestaat de mogelijkheid om een mens in de chat te betrekken.
Het uitstellen van een app voor zulke emotioneel beladen onderhandelingen is niet zonder problemen. Kissoon was zich ervan bewust dat de ToneMeter ouders geen scores kon geven op hoe positief of negatief ze overkomen, en Karpf zegt dat hij een duidelijk effect heeft gezien op het gedrag van gebruikers. “De communicatie wordt robotachtiger”, zegt hij. ‘Je schrijft nu voor een publiek, toch?’
Apps voor co-ouderschap kunnen misschien helpen een probleemrelatie te sturen, maar ze kunnen deze niet oplossen. Soms kunnen ze het nog erger maken. Karpf zegt dat sommige ouders de app als wapen gebruiken en ‘lokaas’-berichten sturen om hun partner op te winden en hen ertoe aan te zetten een probleembericht te sturen: ‘Een eikelouder zal altijd een eikelouder blijven.’ Kisson herinnert zich een gesprek dat hij had met een rechter toen hij het pilotprogramma lanceerde.
“Het ding om te onthouden over gereedschap is dat ik je een schroevendraaier kan geven en dat je er een heleboel dingen mee kunt repareren”, zei de rechter. ‘Of je kunt jezelf in de ogen steken.’
IN 2017 was ADELA TIMMONS een promovendus in de psychologie die een klinische stage liep bij UC San Francisco en het San Francisco General Hospital, waar ze werkte met gezinnen met jonge kinderen uit een laag inkomensmilieu die waren blootgesteld aan trauma.
Terwijl ze daar was, merkte ze dat er een patroon naar voren kwam: patiënten boekten vooruitgang in de therapie, maar die ging tussen de sessies door verloren in de chaos van het dagelijks leven. Ze geloofde dat technologie “de kloof tussen de kamer van de therapeut en de echte wereld zou kunnen overbruggen” en zag het potentieel van draagbare technologie die kon ingrijpen op het moment dat zich een probleem voordoet.
In het veld is dit een “Just in Time Adaptieve Interventie.” In theorie is het alsof er een therapeut klaar staat om in je oor te fluisteren als er een emotionele alarmbel gaat. ‘Maar om dit effectief te doen’, zegt Timmons, nu directeur van het Technological Interventions for Ecological Systems (TIES) Lab aan de Florida International University, ‘moet je interessant gedrag waarnemen, of op afstand detecteren.’
Het onderzoek van Timmons, dat bestaat uit het bouwen van computationele modellen van menselijk gedrag, is gericht op het creëren van algoritmen die het gedrag van koppels en gezinnen effectief kunnen voorspellen. Aanvankelijk richtte ze zich op koppels. Voor één onderzoek voorzagen onderzoekers 34 jonge koppels van pols- en borstmonitors en volgden ze de lichaamstemperatuur, hartslag en transpiratie.
Ze gaven ze ook smartphones die hun gesprekken afluisterden. Door deze gegevens te vergelijken met enquêtes per uur waarin de paren hun emotionele toestand en eventuele ruzies beschreven, ontwikkelden Timmons en haar team modellen om te bepalen wanneer een paar een grote kans had om te vechten. Triggerfactoren zijn bijvoorbeeld een hoge hartslag, veelvuldig gebruik van woorden als ‘jij’ en contextuele elementen, zoals het tijdstip van de dag of de hoeveelheid licht in een kamer.
“Er is niet één enkele variabele die telt als een sterke indicator voor een onvermijdelijke rij”, legt Timmons uit (hoewel het verkeer in LA een belangrijke factor was), “maar als je veel verschillende stukjes informatie hebt die worden gebruikt in een model, in combinatie, kun je dichter bij het nauwkeurigheidsniveau komen voor een algoritme dat echt zou werken in de echte wereld.
Timmons breidt deze modellen uit om naar de gezinsdynamiek te kijken, met de nadruk op het verbeteren van de banden tussen ouders en kinderen. TIES ontwikkelt mobiele apps die erop gericht zijn positieve interacties passief waar te nemen met behulp van smartphones, Fitbits en Apple Watches (het idee is dat dit werkbaar moet zijn met bestaande consumententechnologie). Eerst worden de gegevens verzameld: voornamelijk hartslag, stemgeluid en taal. De hardware detecteert ook fysieke activiteit en of ouder en kind samen of gescheiden zijn.
In het onderzoek van de paren was het algoritme 86 procent nauwkeurig in het detecteren van conflicten en kon het een correlatie genereren met zelfgerapporteerde emotionele toestanden. In een gezinscontext is de hoop dat door het detecteren van deze toestanden de app actief kan ingrijpen.
“Het kan een prompt zijn, zoals ‘ga je kind een knuffel geven’ of ‘vertel je kind iets wat hij of zij vandaag goed heeft gedaan'”, zegt Timmons. “We werken ook aan algoritmen die negatieve toestanden kunnen detecteren en vervolgens interventies kunnen sturen om de ouders te helpen hun emoties te reguleren. We weten dat wanneer de emoties van een ouder worden gereguleerd, de zaken meestal beter gaan.”
Contextuele informatie helpt de voorspellingspercentages te verbeteren: heeft de persoon de nacht ervoor goed geslapen? Hebben ze die dag gesport? Aanwijzingen kunnen de vorm aannemen van een suggestie om te mediteren, een ademhalingsoefening te proberen of zich bezig te houden met cognitieve gedragstherapietechnieken. Mindfulness-apps bestaan al, maar deze zijn afhankelijk van het feit dat de gebruiker eraan herinnert deze te gebruiken op een moment dat hij of zij waarschijnlijk boos, overstuur of emotioneel overweldigd zal zijn.
“Het is eigenlijk op die momenten waarop je het minst in staat bent een beroep te doen op je cognitieve hulpbronnen”, zegt Timmons. “De hoop is dat we de persoon halverwege kunnen ontmoeten door hem te wijzen op het moment dat hij die vaardigheden moet gebruiken.” Uit haar ervaring met het werken met gezinnen blijkt dat de traditionele structuur van de therapie – sessies van 50 minuten één keer per week – niet noodzakelijkerwijs de meest effectieve manier is om impact te maken.
“Ik denk dat het vakgebied steeds explicieter geïnteresseerd begint te raken in de vraag of we de wetenschap van psychologische interventies kunnen uitbreiden.”
Het werk wordt ondersteund door een subsidie van de National Institutes of Health en de National Science Foundation als onderdeel van een fonds om technologiesystemen te creëren die commercieel levensvatbaar zijn, en Timmons hoopt dat het onderzoek zal leiden tot psychologische gezondheidszorg die toegankelijk, schaalbaar en duurzaam is. . Zodra haar laboratorium over de gegevens beschikt die aantonen dat het effectief en veilig is voor gezinnen – en geen onverwachte schade veroorzaakt – zullen er beslissingen moeten worden genomen over de manier waarop dergelijke technologie kan worden ingezet.
Naarmate de datagestuurde gezondheidszorg zich uitbreidt, is privacy een punt van zorg. Apple is het nieuwste grote technologiebedrijf dat zich op dit gebied uitbreidt; Het is halverwege een drie jaar durend onderzoek met onderzoekers van de UCLA, gelanceerd in 2020, om vast te stellen of iPhones en Apple Watches gevallen van depressie en stemmingsstoornissen kunnen detecteren – en uiteindelijk kunnen voorspellen en ingrijpen.
Er worden gegevens verzameld van de camera- en audiosensoren van de iPhone, evenals van de bewegingen van de gebruiker en zelfs van de manier waarop hij op zijn apparaat typt. Apple is van plan gebruikersgegevens te beschermen door het algoritme op de telefoon zelf te hebben, zonder dat er iets naar de servers wordt verzonden.
Bij het TIES-lab zegt Timmons dat er geen gegevens worden verkocht of gedeeld, behalve in gevallen die verband houden met schade of misbruik. Ze vindt het belangrijk dat de wetenschappers die deze technologieën ontwikkelen nadenken over mogelijk misbruik: “Het is de gezamenlijke verantwoordelijkheid van de wetenschappelijke gemeenschap, samen met wetgevers en het publiek om de aanvaardbare grenzen binnen deze ruimte vast te stellen.
De volgende stap is om de modellen in realtime te testen om te zien of ze effectief zijn en of aanwijzingen van een mobiele telefoon daadwerkelijk tot betekenisvolle gedragsverandering leiden. “We hebben veel goede redenen en theorieën om te denken dat dit een heel krachtig interventiemechanisme zou zijn”, zegt Timmons. “We weten gewoon nog niet hoe goed ze in de echte wereld werken.”
HET IDEE DAT sensoren en algoritmen de complexiteit van menselijke interactie kunnen begrijpen, is niet nieuw. Voor relatiepsycholoog John Gottman is liefde altijd een spel van getallen geweest. Sinds de jaren zeventig probeert hij de alchemie van relaties te kwantificeren en te analyseren.
Gottman deed onderzoek naar stellen, het meest bekend in het ‘Love Lab’, een onderzoekscentrum aan de Universiteit van Washington dat hij in de jaren tachtig oprichtte. Een versie van het Love Lab is nog steeds actief in het Gottman Institute in Seattle, opgericht in 1996 samen met zijn vrouw Julie Gottman, een collega-psycholoog. In romcom-termen lijkt het Love Lab op de openingsscène van When Harry Met Sally. verbonden met de scène in Meet the Parents waarin Robert De Niro zijn toekomstige schoonzoon aan een leugendetectortest laat deelnemen.
Mensen werden twee aan twee aangesloten en gevraagd om met elkaar te praten – eerst over hun relatiegeschiedenis, daarna over een conflict – terwijl verschillende machines hun hartslag, transpiratie, stemgeluid en hoeveel ze in hun stoel zaten te wiebelen. In een achterkamer vol monitoren werd elke gezichtsuitdrukking gecodeerd door getrainde operators. Het Love Lab had tot doel gegevens te verzamelen over de manier waarop koppels met elkaar omgaan en hun gevoelens overbrengen.
Dit onderzoek leidde tot de ‘Gottman-methode’, een methodologie voor relatietherapie. Het is belangrijk om een verhouding van 5:1 tussen positieve en negatieve interacties te handhaven; dat het niet reageren van 33 procent op het verzoek van een partner om aandacht neerkomt op een “ramp”; en dat oogrollen sterk gecorreleerd zijn met huwelijksondergang. “Relaties zijn niet zo ingewikkeld”, zegt John Gottman vanuit zijn huis op Orcas Island, Washington.
Ook de Gottmans betreden het AI-rijk. In 2018 richtten ze een startup op, Affective Software, om een online platform te creëren voor relatiebeoordeling en begeleiding. Het begon vanuit een IRL-interactie; een vriendschap die vele jaren geleden ontstond toen Julie Gottman Rafael Lisitsa, een Microsoft-veteraan, ontmoette toen ze hun dochters ophaalden bij de schoolpoort. Lisitsa, de medeoprichter en CEO van Affective Software, ontwikkelt een virtuele versie van het Love Lab, waarin koppels dezelfde ‘röntgen’-diagnose van hun relatie kunnen krijgen via de camera op hun computer, iPhone of tablet.
Ook hier worden gezichtsuitdrukkingen en stemgeluid gemonitord, evenals de hartslag. Het is een indicatie van hoe ver het detecteren van emoties, of ‘affective computing’, is gekomen; Hoewel het oorspronkelijke Love Lab werd ondersteund door schermen en apparaten, was er uiteindelijk een speciaal opgeleid individu nodig om naar de monitor te kijken en elke signaal correct te coderen. Gottman heeft nooit geloofd dat het menselijke element verwijderd kon worden. “Er waren maar heel weinig mensen die emoties echt heel gevoelig konden coderen”, zegt hij. “Ze moesten muzikaal zijn. Ze moesten wel enige ervaring hebben met theater… Ik had nooit gedroomd dat een machine dat zou kunnen.”
Niet iedereen is ervan overtuigd dat machines dit kunnen. Emotiedetecterende AI is een schokkerig terrein. Het is grotendeels gebaseerd op het idee dat mensen universele uitingen van emoties hebben – een theorie die in de jaren zestig en zeventig werd ontwikkeld op basis van observaties van Paul Ekman, die een coderingssysteem voor gezichtsuitdrukkingen creëerde dat de basis vormt voor het werk van de Gottmans en de basis vormt van veel affectieve emoties. computersoftware. Sommige onderzoekers, zoals psycholoog Lisa Feldman Barrett van de Northeastern University, hebben zich afgevraagd of het mogelijk is om op betrouwbare wijze emoties uit een gezichtsuitdrukking te detecteren.
En hoewel sommige gezichtsherkenningssoftware al op grote schaal wordt gebruikt, zijn er aanwijzingen voor raciale vooroordelen; uit een onderzoek waarin twee reguliere programma’s werden vergeleken, bleek dat ze meer negatieve emoties aan zwarte gezichten toekenden dan aan blanke. Gottman zegt dat het virtuele Love Lab is getraind op gezichtsdatasets die alle huidtypes omvatten en dat zijn systeem voor het coderen van interacties is getest bij verschillende groepen in de VS, waaronder Afro-Amerikaanse en Aziatisch-Amerikaanse groepen.
“We weten dat cultuur daadwerkelijk de manier matigt waarop mensen emoties uiten of maskeren”, zegt hij. “We hebben gekeken in Australië, Groot-Brittannië, Zuid-Korea en Turkije. En het lijkt erop dat het specifieke affectsysteem dat ik heb ontwikkeld echt werkt. Zal het in alle culturen werken? Wij weten het echt niet.”
Gottman voegt eraan toe dat het Love Lab eigenlijk werkt via een sociaal coderingssysteem; Door rekening te houden met het onderwerp van het gesprek, de toon van de stem, de lichaamstaal en de uitdrukkingen, is het minder gericht op het detecteren van een enkele emotie op dat moment, maar analyseert het in plaats daarvan de algemene kwaliteiten van een interactie. Voeg deze bij elkaar, zegt Gottman, en je kunt betrouwbaarder een categorie als woede, verdriet, walging en minachting bedenken.
Wanneer een koppel deelneemt, worden ze uitgenodigd om een gedetailleerde vragenlijst te beantwoorden en vervolgens twee gesprekken van 10 minuten op te nemen. Eén is een discussie over de afgelopen week; de andere gaat over een conflict. Na het uploaden van de video’s beoordeelt het stel hun emotionele toestand tijdens verschillende fasen van het gesprek, van 1 (zeer negatief) tot 10 (zeer positief).
De app analyseert dit vervolgens, samen met de gedetecteerde signalen, en levert resultaten, waaronder een positief-negatieve verhouding, een vertrouwensstatistiek en de prevalentie van de gevreesde ‘Vier Ruiters van de Apocalyps’: kritiek, defensiviteit, minachting en tegenwerking. . Het is bedoeld voor gebruik in combinatie met een therapeut.
Therapie en geestelijke gezondheidszorg worden steeds vaker via videogesprekken aangeboden – sinds de pandemie is deze verschuiving nog sterker geworden. Durfkapitaalinvesteringen in virtuele zorg en digitale gezondheidszorg zijn volgens analisten van McKinsey verdrievoudigd sinds Covid-19, en chatbots voor AI-therapie, zoals Woebot, worden mainstream. Relatietherapie-apps zoals Lasting zijn al gebaseerd op de Gottman-methode en sturen meldingen om gebruikers eraan te herinneren om bijvoorbeeld hun partner te vertellen dat ze van hem houden.
Je zou je kunnen voorstellen dat dit ons lui maakt, maar de Gottmans zien het als een educatief proces, dat ons bewapent met hulpmiddelen die uiteindelijk een tweede natuur zullen worden. Het team denkt al aan een vereenvoudigde versie die onafhankelijk van een therapeut kan worden gebruikt.
Voor de Gottmans, die zich lieten inspireren door het feit dat zoveel stellen toch al vastzitten op hun smartphones, opent technologie een manier om counseling te democratiseren. “Mensen raken steeds meer op hun gemak met technologie als taal”, zegt Gottman. “En als hulpmiddel om hun leven op allerlei manieren te verbeteren.”
DEZE TECHNOLOGIE IS al overal. Het kan uw relaties beïnvloeden zonder dat u het merkt. Neem Smart Reply van Gmail (de suggesties voor hoe u op een e-mail kunt reageren) en Smart Compose, waarmee u uw zinnen kunt afmaken. Smart Reply werd in 2015 toegevoegd als mobiele functie, Smart Compose werd in 2018 uitgerold; beide worden aangedreven door neurale netwerken.
Jess Hohenstein, een promovendus aan de Cornell University, kwam voor het eerst in aanraking met Smart Reply toen Google Allo, de inmiddels ter ziele gegane berichten-app, in 2016 werd gelanceerd. Deze bevatte een virtuele assistent die antwoordsuggesties genereerde. Ze vond het griezelig: “Ik wilde niet dat een of ander algoritme mijn spreekpatronen zou beïnvloeden, maar ik dacht dat dit wel effect moest hebben.”
In 2019 voerde ze onderzoeken uit waaruit bleek dat AI inderdaad de manier verandert waarop we met elkaar omgaan en met elkaar omgaan. In een onderzoek waarbij Google Allo werd gebruikt, werd aan 113 studenten gevraagd om samen met een partner een taak uit te voeren waarbij een van hen, beiden of geen van beiden Smart Reply konden gebruiken. Naderhand werd aan de deelnemers gevraagd in hoeverre zij het succes of falen van de taak toeschreven aan de andere persoon (of AI) in het gesprek. Een tweede onderzoek richtte zich op taaleffecten; hoe mensen reageerden op positieve of negatieve ‘slimme’ antwoorden.
Hohenstein ontdekte dat de taal die mensen bij Smart Reply gebruikten, positief was. Mensen kwamen eerder met een positieve suggestie dan met een negatieve suggestie; deelnemers bevonden zich ook vaak in een situatie waarin ze het er niet mee eens wilden zijn, maar alleen uitingen van instemming kregen aangeboden. Het effect is dat een gesprek sneller en soepeler verloopt. Hohenstein merkte dat mensen in het gesprek daardoor ook een beter gevoel over elkaar kregen.
Hohenstein denkt dat dit contraproductief zou kunnen worden in professionele relaties: deze technologie (gecombineerd met onze eigen suggestibiliteit) zou ons kunnen ontmoedigen iemand uit te dagen, of het er helemaal niet mee eens te zijn. Door onze communicatie efficiënter te maken, zou AI ook onze ware gevoelens eruit kunnen trommelen, waardoor de uitwisselingen zouden worden teruggebracht tot het stuiteren van “love it!” en “klinkt goed!” terug naar elkaar. Voor mensen op de werkvloer die het traditioneel moeilijker vinden om iets te zeggen, kan dit de prikkel om dit te doen vergroten.
In het onderzoek naar het voltooien van taken ontdekte Hohenstein dat de mensen de eer opeisten voor positieve resultaten. Als er iets misging, kreeg de AI de schuld. Daarmee beschermde het algoritme de menselijke relatie en vormde het een buffer voor onze eigen tekortkomingen. Het roept een diepere kwestie van transparantie op: moet worden onthuld dat een AI heeft geholpen een antwoord te formuleren? Wanneer een partner Smart Reply gebruikte, zorgde dit er in eerste instantie voor dat de ontvanger een positiever gevoel kreeg over de ander. Maar toen hen werd verteld dat er een AI bij betrokken was, voelden ze zich ongemakkelijk.
Dit ligt ten grondslag aan een paradox die voortkomt uit het gebruik van dergelijke technologie: perceptie en realiteit zijn niet op elkaar afgestemd. “Mensen worden er bang van, maar het verbetert de interpersoonlijke perceptie van de mensen met wie je communiceert”, zegt Hohenstein. “Het is contra-intuïtief.”
In zijn artikel benadrukt Hancock hoe deze instrumenten “wijdverspreide sociale gevolgen kunnen hebben” en schetst hij een onderzoeksagenda om een technologische revolutie aan te pakken die onder onze neus heeft plaatsgevonden. AI-gemedieerde communicatie kan de manier waarop we spreken transformeren, vooroordelen verminderen of verergeren. Het kan ons doen afvragen met wie we eigenlijk praten. Het zou zelfs ons zelfbeeld kunnen veranderen. “Als AI de berichten van een afzender aanpast om positiever, grappiger of extraverter te zijn, zal de zelfperceptie van de afzender dan veranderen in de richting van positiever, grappiger of extraverter?” hij schrijft. Als AI te veel van onze relaties overneemt, wat blijft er dan eigenlijk over?