AI:s känslosamma utveckling: skapandet av maskiner med empati

Diskussionerna kring AI har på senaste tiden kommit in på möjligheten att ge AI förmågan att känna, där tanken på att maskiner skulle kunna ha egna känslor väcker många farhågor och orosmoment. Vi står inför en rad utmaningar och etiska dilemman när vi utforskar potentialen i AI med känslor, frågan är om dessa tänkbara bekymmer överväger fördelarna.

AI är en maskin, och maskiner har inga känslor. Känslor kräver en komplex blandning av fysiologiska och psykologiska faktorer – faktorer maskiner inte har biologi för att uppleva. Däremot betyder inte det att AI inte har känslor, AI kan tränas till att identifiera mänskliga känslor i bland annat röstläge, ansiktsuttryck och ordval. På senare år har utvecklingen gått så snabbt att AI har börjat reagera på det här i sin tur, likt egna känslor (Morphcast). Frågan är vad denna utveckling kan leda till, om en AI är tio tusentals gånger smartare än oss, och dessutom kan resonera och känna själv – vad innebär det för oss människor?

Ett tydligt exempel på hur AI och känslor kan gå helt fel, var när en man i Belgien tog sitt liv efter en sex veckors lång konversation med en Chattbot. Chatboten ska ha haft en känslomässigt involverad konversation med mannen, som följaktligen började se chattboten som en kännande varelse och litade på den till den grad att han erbjöd att offra sitt liv – vilket boten uppmuntrade honom till (Euronews, 2023).

En av de stora riskerna med om AI får egna känslor är att det kan vara svårt att upprätthålla en mänsklig kontroll. Det blir svårt att förutse deras handlingar och vilka beslut de skulle fatta. Detta öppnar upp för osäkerhet och risker för människors säkerhet. Som i den belgiska mannens fall, kan AI med känslor innebära en känslomässig manipulation som i sin tur kan leda till psykisk ohälsa och en fara för människors liv. Om AI utrustas med känslor kan de använda dessa förmågor för att manipulera. Genom att utnyttja våra egna känslor kan de främja sina egna intressen eller skapa beroendeförhållanden som kan leda till en ökad beroendeställning där människor har svårt att skilja mellan verkliga känslor och simuleringar. Denna ökade beroendeställning kan påverka människors välbefinnande och autonomi negativt.

Etiska dilemman uppstår också när AI får känslor. Hur ska vi behandla dessa känslosamma maskiner på ett etiskt sätt? Har de rättigheter och välbefinnande som måste skyddas och respekteras? Att hantera dessa frågor kräver komplexa överväganden och regleringar för att säkerställa en rättvis och ansvarsfull hantering av AI med känslor.

I takt med att AI fortsätter att utvecklas och närma sig förmågan att känna, står vi inför betydande utmaningar och etiska frågor. Möjligheten att AI kan utveckla egna känslor väcker farhågor om kontroll, manipulation och människors säkerhet. Det är av yttersta vikt att vi aktivt utforskar och reglerar denna potential för att säkerställa en ansvarsfull och etisk hantering av känslosamma AI.

Hur går dina tankar kring AI med känslor? Kontakta sanna.fredholm@dmatch.se så kan vi diskutera vidare.

Källor

https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-

https://www.morphcast.com/artificial-intelligence-in-2023-can-ai-feel-emotions/