Skip to main content
Hjälpa människor att interagera med AI-system på en konfident, kritisk och säker väg
En bild av tre personer som sitter på en skrivbord och samarbetar.

Människor kan köra säkert till önskad destination genom att följa trafikregler och överenskomna uppförandekoder utan att nödvändigtvis veta hur bilens motor fungerar. Låt oss nu tillämpa samma analogi när vi funderar på hur människor interagerar med AI-system, t.ex. digitala assistenter som använder röstigenkänning eller algoritmer som vägleder oss till nästa film vi kommer att titta på.
Den
nya uppdateringen DigComp 2.2 syftar till att ge användarna grundläggande kunskaper om vad AI-system gör och vad de inte gör, och inför vissa grundläggande principer som ska hållas i åtanke när de interagerar med AI-system. Detta kan hjälpa medborgarna att bli mer självsäkra, kritiska och ändå öppna användare av dagens teknik, samtidigt som de bidrar till att minska riskerna i samband med säkerhet, personuppgifter och integritet.
 

AI finns överallt, men känner vi till den? 

Många vardagliga tekniker använder och integrerar någon typ av artificiell intelligens. AI kan till exempel användas för att omvandla röstkommandon till en konkret åtgärd – som att ringa eller vända ljuset. Ofta är människor inte medvetna om att sådana system samlar in personuppgifter om användaren och deras åtgärder, och de inser inte hur dessa data kan användas för en mängd olika ändamål (t.ex. utbildning av nya AI-algoritmer, utbyte av data med 3:e parter). Detta ger naturligtvis upphov till en rad integritets- eller säkerhetsproblem.
Uppdateringen
DigComp 2.2 innehåller en bilaga med mer än 70 exempel som kan hjälpa människor att bättre förstå var och i vilka situationer de kan förvänta sig att stöta på AI-system i vardagen. Den ger också praktiska exempel på hur ny teknik har genomsyrat vår vardag. 
 

Hur kan DigComp 2.2 hjälpa oss att förstå AI-system? 

Tre typer av exempel ges i denna senaste uppdatering av ramen för att hjälpa till att förstå vad AI-system gör – och vad de inte gör: 

  • Exempel på kunskap är inriktade på fakta, principer och praxis. Att samarbeta med AI-system på ett tryggt och säkert sätt innebär att vara medveten om hur sökmotorer, sociala medier och innehållsplattformar använder AI-algoritmer för att generera svar som är anpassade till den enskilda användarens preferenser (detta nummer hjälper dig att hitta det i publikationen: AI 03, s. 78).
  • Exempel på färdigheter som fokuserar på förmågan att tillämpa kunskap när de interagerar med AI-system. Detta innebär att veta hur man kan ändra användarkonfigurationer (t.ex. i appar, programvara, digitala plattformar) för att möjliggöra, förhindra eller moderera AI-systemet från att spåra, samla in eller analysera data (t.ex. stänga av lokaliseringsuppföljningen på våra telefoner osv.). (AI 35, s. 80.) 
  • Exempel på attityd är kopplade till mänsklig makt och kontroll och visar på ett upplägg eller en attityd att agera. Detta innebär att man måste vara öppen för AI-system som hjälper människor att fatta välgrundade beslut i enlighet med sina mål (t.ex. att användare aktivt beslutar om de ska agera på grundval av en rekommendation eller inte).

Alla exempel rör de befintliga DigComp-kompetenserna med en idé om att de kommer att hjälpa kursformgivare och utbildningsanordnare att uppdatera sitt utbildningsinnehåll och bättre illustrera tillämpningen och integreringen av ny teknik i vardagslivet. 
 

Att vinna förtroende för att bekämpa falska nyheter och desinformation

De nya temana i uppdateringen berör aktuella fenomen som ofta förstärker desinformation på sociala medieplattformar såsom filterbubblor (en snedvridning orsakad av en algoritm som begränsar den information som användaren ser på grundval av sin tidigare verksamhet) och ekokammare (en situation där användarna får information online, vilket stärker deras befintliga åsikter utan att stöta på motsatta perspektiv). Exempel illustrerar även deepfakes och andra automatiserade former av AI-genererat innehåll. 

De fokuserar också på integritetsfrågor vid kontakter med AI-system som kan dela personuppgifter med3:e parter och lägger ut de grundläggande frågor som vi måste ställa innan programvaran för ansiktsigenkänning eller den digitala assistenten aktiveras på vår telefon. 

DigComp 2.2-exemplen på människor som interagerar med AI-system syftar till att ge en bild av dagens värld och hjälpa människor att engagera sig på ett tryggt, kritiskt och säkert sätt med vardagsteknik, särskilt sådan som drivs av AI. Ett annat mål är att ge medborgarna möjlighet att i högre grad kontrollera sitt eget livslånga lärande så att de kan hålla sig informerade om AI-system och vad vi kallar ”datafieringen” av alla aspekter av våra liv. Sist men inte minst är ett av målen att hjälpa människor att hantera etiska frågor i samband med digitala metoder, såsom människans självständighet, som ligger till grund för många av EU:s värden. Dessa mål ligger också till grund för Europeiska kommissionens handlingsplan för digital utbildning, som syftar till att förbättra medborgarnas digitala färdigheter och kompetens för den digitala omvandlingen. 

Läs den fullständiga rapporten här. 

Andra kommande arbeten inom ramen för handlingsplanen för hållbar utveckling omfattar följande: 

Om författaren 

Dr Vuorikari är ansvarig prövare för DigComp 2.2. Hennes arbete är inriktat på att utveckla en bättre förståelse av kunskaper, färdigheter och attityder som hjälper medborgarna att på ett tryggt, kritiskt och säkert sätt engagera sig i digital teknik, inklusive AI-system. Hon anslöt sig till Europeiska kommissionens gemensamma forskningscentrum (JRC) i juli 2013 fram till augusti 2022. Hon har examen i utbildning (M.Ed 1998 i Finland), hypermedia (DEA 1999 i Frankrike) och hon doktorerade 2009.
 

Om GFC

Gemensamma forskningscentrumet är kommissionens vetenskaps- och kunskapstjänst. GFC anställer forskare för att bedriva forskning för att ge oberoende vetenskaplig rådgivning och stöd till EU. EU:s forskningscentrum är JRC:s viktigaste webbplats. 

 

© Viacheslav Iakobchuk

Insights details

Digital teknik/specialisering
Geographic scope - Country
Austria
Belgium
Bulgaria
Cyprus
Typ av initiativ
EU:s institutionella initiativ