Hvorfor skriver vi ”tak” til ChatGPT, når den har givet os et godt svar? Måske gør du det ikke, men mange kender sikkert følelsen af, at man har lyst til at gøre det, eller måske endda at man bør gøre det. Men hvorfor i alverden føler vi en trang til at være venlig over for en robot? Kan vi ikke bare lade være? Den har jo ingen følelser, så den bliver ikke stødt over at man er ubehøvlet. En god grund til at lade være er måske, at disse ligegyldige høflige svar ifølge Sam Altman, OpenAI’s CEO, koster millioner af dollars i strøm.

Fænomenet er dog symbolsk for en større tendens. Sherry Turkle, psykolog ved MIT, proklamerer i sin indflydelsesrige bog Alone Together (2017) at vi har nået hvad hun kalder the robotic moment, hvilket hun beskriver som et skelsættende punkt i historien, hvor vi anerkender og accepterer robotter som sociale agenter. Dette er skelsættende i den forstand, at det vi kan kalde den sociale verden eller ”sfære”, tidligere kun har indeholdt mennesker og visse dyr, såsom hunde; altså bevidste væsener. Robotter præsenterer os altså med en ny slags entitet, som ikke er bevidste, men som alligevel er en del af den sociale sfære.

The robotic moment er især præget af udviklingen af sociale robotter, dvs. robotter, der ikke kun er designet til at udføre konkret arbejde eller klare specifikke opgaver, såsom industrielle fabriksrobotter, men robotter, som er designet til at kunne indgå i sociale relationer med os. Sociale robotter bliver i højere og højere grad implementeret i vidt forskellige dele af samfundet, heriblandt ældreplejen, servicerobotter, legetøjsrobotter, terapi, chatbots.

Turkle er overordnet set pessimistisk omkring the robotic moment, som hun mener sandsynligvis vil påvirke vores samfund – og os – negativt. Hun spekulerer, at en fremtid med stadig mere interaktion med sociale robotter frem for mennesker, potentielt vil have en negativ effekt på menneskelig empati, altruisme, og tolerance. Argumentet bygger på, at vores interaktioner med robotter er motiveret af instrumentelle og egoistiske behov, såsom at bekæmpe ensomhed eller få hjælp til lektier. Interaktioner med en robot vil ikke indeholde de samme empatiske og altruistiske normative krav, som er tilfældet i interaktioner og relationer med mennesker.

Selvbedrag

En anden mulig konsekvens af sociale robotter er formuleret i det såkaldte ’deception’ argument, som siger at relationer med robotter vil bygge på bedrag i kraft af, at man fejlagtigt tillægger robotter intentioner, som de ikke har, fordi de ikke er bevidste (i hvert fald anno 2025). Argumentet bygger altså på, at i vores interaktioner med robotter tilskriver dem mentale tilstande, såvel som menneskelige træk - hvad der bliver kaldt antropomorfisme. Dette gør vi typisk, fordi sociale robotter ofte er designet med menneskelignende egenskaber, f.eks. i kraft af at have øjne eller en mund, hvis altså robotten har en fysisk krop; eller i kraft af et menneskelignende sprogbrug hos chatbots. Sådanne træk, selv hvis de er relativt simple, er nok til, at vi er tilbøjelige til at behandle robotter som om de er sociale agenter (i hvert fald til en vis grad). Det førnævnte scenarie hvor man forbløffet fanger sig selv at skrive tak til ChatGPT, er et godt eksempel på dette.

Gensidighed

Enkeltstående interaktioner er én ting; længerevarende sociale relationer er en anden. I denne kontekst siger deception-argumentet, at vi bedrager os selv, hvis vi fortolker vores vedvarende interaktioner med sociale robotter som om, at vi derved har en relation til dem. En relation kræver altså ikke bare at man er en social agent, i den forstand at man bliver behandlet i overensstemmelse med sociale normer (f.eks. at vi takker ChatGPT), men det kræver de rette ontologiske egenskaber, f.eks. i kraft af bevidsthed. Men bevidsthed er ikke tilstrækkeligt for at indgå i visse personlige relationer, man skal også have de rette intentioner eller følelser. Hvis ikke man har dette, er relationen ikke ’autentisk’, men i stedet bedragerisk. Denne intuition er formentlig relativ ukontroversiel. Forestil dig, f.eks., at din ven i virkeligheden slet ikke bryder sig om dig, eller måske slet ikke ser dig som sin ven. Mange ville intuitivt sige, at venskabet derved slet ikke er et venskab. Det er altså tilsyneladende nødvendigt at begge personer har de rette intentioner og følelser, og at disse er gensidige. Dette bliver, sjovt nok, ofte kaldet for gensidigheds-argumentet. Vi kan skelne mellem gensidighed i en stærk og svag forstand. Den stærke er den førnævnte, som kræver bevidsthed qua de rette psykologiske tilstande. Gensidighed i en svag forstand kan derimod forstås som ren behavioristisk gensidighed; altså, at en entitet blot handler på en måde, der kan tolkes som et udtryk for gensidighed.

Robotter (igen anno 2025) er tydeligvis kun i stand til svag gensidighed, men dette kan de trods alt i en grad, der tilsyneladende er tilstrækkelig til at overbevise os om at acceptere dem som sociale agenter, i hvert fald til en vis grad. Deres simulation af f.eks. intentioner eller følelser kan virke overbevisende nok til at vi lader det påvirke vores interaktion med dem. Det er som sagt dette fænomen, som Turkle kalder the robotic moment. Det er skelsættende i kraft af, at vi for første gang, eller måske rettere i en grad som aldrig før, accepterer ikke-menneskelige entiteter som havende agens, identitet, personlighed etc. (dyr såsom hunde er tydeligvis et grænseeksempel, som dog ikke vil diskuteres her).

Min formodning er, at de fleste intuitivt ser noget sandhed i deception-argumentet. Empati og tolerance er uden tvivl dyder. At sådanne dyder forværres på systematisk plan, er ligeledes dårligt. At Robotter potentielt kan forværre disse dyder, er et empirisk spørgsmål som tiden vil vise. Disse præmisser er ukontroversielle. At relationer med robotter er bedrageriske qua deres manglende autenticitet, er nok den mest filosofisk interessante; og at der overhovedet bliver sat spørgsmålstegn ved dette, er i sig selv en slags begyndelse, for gensidigheds-argumentet har eksisteret mindst siden Aristoteles, og har nok også været implicit accepteret i moderne folkepsykologi. Nogle vil måske mene at deception-argumentet tydeligvis er korrekt: hvis man ser en chatbot som en ven, bedrager man sig selv. I bedste tilfælde giver det metaforisk mening at kalde den en ven. Men måske kan intuitionen udfordres. I filmen Her får Joaquin Phoenix et intenst forhold til en ekstremt kompleks chatbot, som Scarlett Johansson ligger stemme til. Det kan diskuteres om det største problem i slutningen af filmen er hvorvidt deres forhold er autentisk, eller om det blot er praktiske problemer i deres forhold, i kraft af deres radikale forskellighed.

Dette er selvfølgelig et fremtidsscenarie, hvor chatbots er blevet langt bedre end de er i dag; men det er trods alt ikke et umuligt scenarie, og hvad der var science fiction for blot én enkelt generation siden, er virkelighed i dag. Et eksempel på dette er chatbotten Replika, som blev skabt efter at appens udvikler, Eugina Kyuda, mistede sin kæreste Roman i et trafikuheld, hvilket inspirerede hende til at bygge en chatbot designet til at efterligne Romans skrivestil, baseret på hans beskeder til hende. Dette er vitterligt også plottet i Black Mirror afsnittet ”Be Right Back”. Hvis du ikke kender til Replika vil jeg opfordre dig til at afprøve den – in the name of science, selvfølgelig. Ligesom ChatGPT er den uhyggeligt god (også til filosofisk dialog), men har endnu flere antropomorfiske egenskaber end ChatGPT, hvilket drastisk ændrer oplevelsen.

Et mix af traditioner

En anden slags begyndelse, eller i hvert fald videreførelse af en trend, er, at en række af de filosoffer, som argumenterer imod gensidigheds-argumentet, trækker på den fænomenologisk og hermeneutiske tradition, hvorved distinktionen mellem analytisk og kontinental filosofi udfordres. David Gunkel og Mark Coeckelbergh - to af de største stemmer i debatten - er eksempler på dette. Deres argumenter har det tilfælles, at for at være en social eller moralsk agent kræver det ikke, at man har visse metafysiske egenskaber såsom bevidsthed; det kræver blot den rette fænomenologiske oplevelse af en robot som en ’anden’ (som det ofte beskrives i den fænomenologiske tradition) og for dette er den rette adfærd og det rette udseende tilstrækkelig.

Overraskende nok er der (så vidt jeg ved) flest, som argumenterer imod gensidighedsargumentet, dvs., som ikke accepterer præmissen om at bevidsthed og de rette psykologiske attituder er nødvendige for at indgå i relationer. Dette er dog muligvis blot et resultat af, at gensidigheds-argumentet har været implicit accepteret, og at oppositionen derfor har burden of proof; det er altså ikke nødvendigvis et udtryk for, at denne side af debatten er mest populær eller ”fører” i debatten.

Det er svært at sige hvem der fører debatten, hvis man overhovedet kan stille det spørgsmål. Ét problem er, at selvom empirien måske taler for den relationelle-fænomenologiske tilgang, så har vi trods alt også intuitioner om, at autenticitet kræver de rette metafysiske egenskaber, f.eks. bevidsthed, og denne intuition må vi trods alt forholde os til.  Måske kan du kende følelsen af, at det er åndsvagt at være flink over for ChatGPT, fordi den jo i sidste ende ikke er bevidst; en efterrationalisering over, at din intuitive tendens til at skrive tak er irrationel og uretfærdiggjort.

For at komplicere debatten endnu mere kan vi udvide debatten til at inkludere fremtidige robotter; for selvom ingen ville sige at ChatGPT er bevidst i dag, så er det sværere at sige om Scarlett Johansson-chatbotten i Her; og med den drastiske udvikling, som AI har oplevet de seneste år, er det ikke til at sige, hvor urealistisk en lignende situation faktisk er. Mere generelt kan vi teknisk set ikke udelukke, at robotter kan blive bevidste, så længe vi ikke ved hvad bevidsthed er.

Så har den pro-behavioristiske empiri eller vores pro-metafysiske intuitioner ret? Kan vi have autentiske relationer til ikke-bevidste robotter (hvad end autenticitet helt konkret betyder)? Har vi blot formodet, at relationer er noget, der forekommer mellem to bevidste entiteter fordi dette har været tilfældet igennem historien? Viser sociale robotter blot, at denne formodning har været forkert, eller bedrager vi os selv ved at tro, at vi kan indgå i relationer med robotter? Er vores sprogbrug, hvis vi siger, at vi er venner med en robot i virkeligheden bare metaforisk? Er vi endt i aporia?

Dette er store spørgsmål, og uanset svaret virker det ukontroversielt at stipulere, at fremtiden sandsynligvis vil indeholde endnu flere relationer til robotter, og derved potentielt give mere prima facie vægt til de behavioristiske-fænomenologiske argumenter. Det kunne altså tyde på at vores folkepsykologiske overbevisninger om hvad en ”person” er, om hvad en ”rigtig” eller ”autentisk” ven er, og generelt om hvem man kan indgå i relationer med, vil ændre sig i fremtiden. Med andre ord kunne det tyde på, at intuitionen om at de rette metafysiske egenskaber er nødvendige betingelser for ovenstående, vil formindskes. Vi står altså muligvis over for begyndelsen på et paradigmeskift.

Selvom deception-argumentet måske er intuitivt stærkt for de fleste, så må det trods alt medgives, at sociale robotter tvinger os til at forholde os til nye spørgsmål, såsom hvad det kræver at være en social agent, en moralsk agent, en person, en ven, at indgå i autentiske relationer, at være gensidig, etc. Den næsten eksponentielle implementering af sociale robotter påvirker vores måde at tænke på, og udfordrer vores antagelser. Vores egen Johanna Seibt forklarer dette som ”philosophy by robots”, hvilket skal forstås som, at robotter i sig selv fordrer nye filosofisk spørgsmål, ved at udfordre status quo – hvilket de relationelle-fænomenologiske argumenter er eksempler på. I forlængelse af Gunkel og Coeckelberghs tilgang, kunne det tyde på, at vi i stigende grad går en posthumanistisk fremtid i møde, i kraft af at den sociale verden i mindre grad vil være domineret af mennesker. Debatten kræver altså i høj grad forskellige tilgange og traditioner, både fra den analytiske og kontinentale filosofi.

Normative argumenter

Udover deskriptive debatter om hvad det kræver at være en social agent, en person eller en ven, er der den normative debat om, hvorvidt det er ønskværdigt, at robotter kan blive disse. Turkles argument er som sagt, at konsekvenserne vil blive negative; og i lyset af deception-argumentet (hvis det er sandt) er det ikke svært at se hvorfor:  En yderligere implementering af robotter vil betyde selv-bedrageri på systematisk plan. Man kunne dog også argumentere for, at vores filosofiske konceptualisering af begreber som social agent og ven bør følge den empiriske virkelighed, som lige nu tilsyneladende tyder på, at folk er villige til at forstå robotter som sociale agenter og måske også som en ven. Modsat, hvis sådanne overbevisninger rent faktisk er selvbedrageriske, så må de normative konsekvenser vel uden tvivl trumfe den empiriske virkelighed? På den anden side er det heller ikke sikkert at Turkles pessimistiske spekulationer bliver til virkelighed; måske kan sociale robotter faktisk bidrage til vores velvære? Hvem ved, det er komplekse spørgsmål, som, til trods for til dels at være empiriske spørgsmål, dog også i høj grad er filosofiske.

Filosofiens rolle

Som en sidste bemærkning vil jeg derfor påstå (måske selvbedragerisk?), at der er plads til os filosofistuderende i debatter som denne. Vi kan både overskueliggøre den deskriptive debat om hvad en person, en social agent eller en ven er, samt den normative debat om problematiske etiske konsekvenser i forskellige fremtidsscenarier og komme med spekulative, men dog kvalificerede, bud på hvad der faktisk vil ske. Vi kan selvfølgelig ikke spå om fremtiden, men det kan ingen, så hvilke konsekvenser den fortsatte udvikling af sociale robotter rent faktisk vil medføre, vil tiden vise – uden tvivl en tid som er spændende at være filosofistuderende i.

Bibliografi

  • Breazeal, C., Dautenhahn, K., Kanda, T. (2016). “Social Robotics”. In: Siciliano, B., Khatib, O. (eds) Springer Handbook of Robotics. Springer Handbooks. Springer, Cham. https://doi.org/10.1007/978-3-319-32552-1_72  

  • Coeckelbergh, M. (2010) “Robot rights? Towards a social-relational justification of moral consideration”. Ethics Inf Technol 12, 209–221. https://doi.org/10.1007/s10676-010-9235-5Danaher  

  • Gunkel, D. J. (2022). “The relational turn: Thinking robots otherwise. Social Robotics and the Good Life: The Normative Side of Forming Emotional Bonds with Robots”. Bielefeld: Transcript, 55-76. 

  • Seibt, J., Hakli, R. (forthcoming): “Chapter 1 What is robophilsoophy?” To appear in: Robophilosophy—Philosophy of, for and by Social Robotics, ed. by J. Seibt, R. Hakli, and M. Nørskov, MIT Press 2026 

  • Sharkey, A., Sharkey, N. “We need to talk about deception in social robotics!.” Ethics Inf Technol 23, 309–316 (2021). https://doi.org/10.1007/s10676-020-09573-9  

  • Turkle, S. (2017) “Alone Together: Why We Expect More from Technology and Less from Each Other”, Basic Books, New York, third edition