Gå direkt till innehållet

Mål: Eleverna ska utveckla en kritisk förståelse för AI:s påverkan på samhället.

Material: Exempel på AI i verkliga situationer (till exempel sjukvård, självkörande bilar, ansiktsigenkänning).

Instruktioner:

  1. Ge eleverna olika fallstudier om AI:s tillämpning. (Se förslag nedan.)
  2. Diskutera de etiska dilemman som kan uppstå. (Se förslag på etiska dilemman.)
  3. Eleverna skriver en argumenterande text eller debatterar en fråga kopplad till AI.

Fallstudie 1: AI i sjukvården

Inom sjukvården används AI bland annat för att analysera röntgenbilder, ställa diagnoser, förutsäga sjukdomsförlopp och föreslå behandlingsmetoder. AI tränas på enorma mängder patientdata, till exempel tidigare fall av cancer, för att lära sig känna igen mönster och fatta beslut. AI kan också användas för att prioritera patienter i akuta situationer, förutse vilka patienter som riskerar att återvända till sjukhuset eller rekommendera läkemedel baserat på individens journal och genetiska profil. 

 

Etiska dilemman

Ansvar

När AI används för att föreslå diagnoser eller behandlingar uppstår frågan: vem är ansvarig om något går fel?

I praktiken är det fortfarande läkaren som fattar det slutgiltiga beslutet. Är det läkarens fel om AI har föreslagit en felaktig diagnos som läkaren förlitat sig på? Eller är det utvecklaren som byggt AI som bär ansvaret?

 

Rättvisa

AI tränas ofta på historisk patientdata. Om datan innehåller snedfördelningar riskerar AI att återskapa dessa mönster.

Forskning visar att kvinnors hjärtsymtom ofta ser annorlunda ut än mäns. Ibland avfärdas deras besvär som stress. Om AI tränas på data där sådana avvikelser inte tagits på allvar finns en risk att den fortsätter att underskatta hjärtinfarkter hos kvinnor. Det kan leda till att viktiga diagnoser missas, trots allvarliga symptom.

 

Transparens

Många AI-system, särskilt de som bygger på djupinlärning, är så komplexa att inte ens experterna fullt ut kan förklara hur systemen kommer fram till sina beslut. Det kallas ibland för ”black box”-problemet.

Det här kan bli ett problem i sjukvården eftersom förståelse för varför ett beslut har fattats är avgörande för både läkare och patienter. Om en AI rekommenderar att en patient ska opereras men inte kan ge en tydlig motivering, hur ska läkaren kunna försvara beslutet? Hur ska patienten kunna känna förtroende eller ifrågasätta beslutet när man inte förstår vad som ligger bakom det?

 

Integritet

För att AI ska kunna fungera i vården behöver den tillgång till stora mängder känslig patientdata: journaler, röntgenbilder, provsvar och ibland genetisk information.

Hur samlas datan in? Hur lagras och delas den? Vem har tillgång till den? Vad händer om informationen hamnar i fel händer?

 


Fallstudie 2: Självkörande bilar

Självkörande bilar är beroende av AI för att kunna tolka sin omgivning, fatta beslut och köra säkert. Kameror, radar och sensorer samlar in data om vägmärken, fotgängare, fordon och hinder. AI analyserar datan i realtid och styr bilen. Den bromsar, väjer, svänger och accelererar. AI i självkörande bilar tränas genom miljontals körsimuleringar och verkliga kördata där den lär sig att reagera på trafikregler, oväntade situationer och potentiella faror. 

 

Etiska dilemman

Liv kontra liv

Ett av de mest omdiskuterade etiska problemen med självkörande bilar handlar om nödsituationer där AI tvingas välja mellan två dåliga alternativ. Det kan handla om att köra på en fotgängare som plötsligt kliver ut i gatan eller väja och riskera att krascha och skada de som sitter i bilen. I sådana situationer uppstår en rad svåra frågor: Ska bilen försöka minimera skadan totalt sett, även om det innebär att offra en person för att rädda flera? Ska den prioritera barn framför vuxna? Fotgängare framför passagerare, eller tvärt om? 

Vem får definiera vad som är ”rätt” val i ett sådant läge? Den här typen av beslut kräver moraliska avvägningar. Om människor redan har olika uppfattningar om vad som är rätt, hur ska AI då kunna programmeras att agera etiskt? 

 

Ansvar vid olycka

Om en självkörande bil orsakar en olycka är det ofta oklart vem som bär ansvaret. Är det föraren som satt i bilen utan att styra? Har biltillverkaren som byggt tekniken det största ansvaret? Eller är det programmerarna som utvecklat mjukvaran som har huvudansvaret?

Eftersom AI-systemet själv fattar beslut i realtid suddas gränsen ut mellan mänskligt och tekniskt ansvar. Det gör det svårt att avgöra vem som ska hållas juridiskt ansvarig.

 

Ojämlik tillgång

Självkörande bilar förväntas initialt bli dyra, vilket kan innebära att bara välbärgade grupper har råd med tekniken. Det riskerar att skapa ett samhälle där vissa får tillgång till säkrare och mer bekväm transport medan andra får nöja sig med äldre, mer osäkra fordon.

Ska trafiksäkerhet vara en lyxvara? 

 


Fallstudie 3: Ansiktsigenkänning

Ansiktsigenkänning är en AI-teknik som identifierar eller verifierar en persons identitet baserat på deras ansikte. Den används bland annat i passkontroller, av polis för att identifiera brottsmisstänkta, i övervakningskameror i offentliga miljöer. Tekniken fungerar genom att mäta och analysera unika ansiktsdrag (avstånd mellan ögon, näsans form och käklinjer). AI tränas på stora datamängder med bilder av människors ansikten. 

 

Etiska dilemman 

Integritetsintrång

Ansiktsigenkänning kan användas för att övervaka människor utan deras vetskap. Det innebär att personer kan identifieras, följas och registreras utan att ha gjort något brottsligt eller ens blivit tillfrågade.

Detta hotar rätten till privatliv även i offentliga miljöer. Om vi inte vet när vi blir övervakade eller hur informationen används försvinner möjligheten att själva kontrollera vår närvaro i det digitala rummet.

 

Feltolkningar och diskriminering

Forskning har visat att ansiktsigenkänning ofta fungerar sämre på personer med mörk hudfärg och på kvinnor. Tekniken har främst tränats på bilder av ljushyade män, vilket gör att träffsäkerheten blir lägre för andra grupper.

Det kan få allvarliga konsekvenser: en oskyldig person pekas ut som brottsmisstänkt på grund av en felaktig matchning. Sådana misstag riskerar att förstärka redan existerande ojämlikheter i rättssystemet.

 

Missbruk av staten

I vissa länder används ansiktsigenkänningsteknik av staten för att övervaka befolkningen. Tekniken används för att kontrollera politisk opposition, begränsa yttrandefrihet och identifiera deltagare i protester.

När tekniken används utan insyn, rättslig prövning eller samtycke finns en risk att den blir ett verktyg för förtryck snarare än säkerhet. Även i demokratiska samhällen väcks frågan: var går gränsen mellan legitim övervakning och inskränkning av grundläggande rättigheter?

Spara som favorit

Du måste logga in för att kunna spara som favorit.