Supervalåret 2024 – stor ökning av desinformation och deepfakes

2024 har utpekats till ett supervalår, eftersom så många människor aldrig någonsin tidigare i historien haft möjlighet att rösta i olika val. Med planerade val i 76 länder över hela världen kommer människor i åtta av de tio mest befolkningstäta nationerna - däribland Bangladesh, Brasilien, Indien, Indonesien, Mexiko, Pakistan, Ryssland, och USA - att gå till valurnorna. I takt med att stora nationer som Indien, USA, EU och Storbritannien förbereder sig för att genomföra val, sammanfaller detta med en tid där kraftfulla AI-verktyg, kapabla att förvränga verkligheten, har blivit alltmer tillgängliga för allmänheten. Flera AI-experter har varnat för de potentiella konsekvenserna av detta.

Vad är deepfakes?

Deepfakes är digitalt framställda förfalskningar av bilder, ljud eller videoklipp som genom maskininlärning kommit att bli så genomarbetade att de framstår som äkta. Begreppet ”deepfake” började användas 2017 och kommer från ”deep learning”, som är avancerad AI där flera lager av maskininlärda algoritmer används. Deepfakes har många användningsområden, allt från underhållning till utbildning. Dessa tekniker kan dock även missbrukas i desinformationskampanjer genom att försöka manipulera uppfattningar, underminera förtroendet för medier och myndigheter, påverka valprocesser och orsaka konflikter. I takt med att denna teknik blir alltmer avancerad, blir det svårare att urskilja äkta medieinnehåll från förfalskat. Med hjälp av sociala mediers omfattande räckvidd kan övertygande deepfakes spridas till miljontals människor på mycket kort tid, med potentiellt skadliga effekter för samhället. De främsta producenterna av deepfakes är individer som skapar dessa i hobbyverksamhet, politiska aktörer, aktivister, bedragare och TV-bolag. Dessutom behöver man inte ha stora tekniska kunskaper för att producera en deepfake-video, utan nästan vem som helst med en dator kan skapa övertygande förfalskningar, vilket ytterligare understryker behovet av medvetenhet och skyddsåtgärder mot detta.

Hur regleras deepfakes i EU?

Eftersom deepfakes är ett relativt nytt fenomen finns ingen lagstiftning specifikt riktad till utvecklandet och spridningen av deepfakes, däremot finns två nyligen antagna regelverk som kan aktualiseras: AI-förordningen och DSA-förordningen. Syftet med AI-förordningen är att förse AI-utvecklare och distributörer med tydliga krav och skyldigheter när det gäller specifik användning av AI. Samtidigt syftar förordningen till att minska de administrativa och ekonomiska bördorna för företagen. AI-förordningen implementerar ett riskbaserat klassificeringssystem för olika typer av AI-system, där systemens risknivå direkt påverkar de efterlevnadskrav som ställs på dess utvecklare och distributörer. De mest riskfyllda AI-systemen möter strängare regleringar, och vissa anses så riskabla att de helt förbjuds, då de utgör ett hot mot människors säkerhet och rättigheter. Deepfakes, å andra sidan, betraktas som låg risk och underläggs därför mildare regler om transparens. Utvecklare och distributörer av sådana system måste dock säkerställa att användarna är medvetna om att de interagerar med AI-genererat material.

Medan AI-förordningen inte börjat gälla än, utan troligtvis kommer börja tillämpas först i maj 2025, finns idag DSA-förordningen som började gälla den 17 februari 2024. Syftet med förordningen är att säkerställa att den digitala miljön inom EU är säker, förutsebar och tillförlitlig. Leverantörer av digitala tjänster, t.ex. onlineplattformar, ska bland annat ge större insyn i sina tjänster. Med stöd av DSA-förordningen utfärdade EU-kommissionen den 14 mars 2024 informationsförfrågningar till åtta stora plattformar: Bing, Google, Facebook, Instagram, Snapchat, TikTok, YouTube och X (tidigare känd som Twitter). Dessa förfrågningar avser information om plattformarnas åtgärder för att hantera olika risker relaterade till generativ AI, bland annat avseende hur de bekämpar fenomenet "hallucinationer" där AI levererar falsk information, spridningen av deepfakes och särskilt sådana deepfakes som skapas i syfte att vilseleda väljare under valrörelser. Plattformarna är ålagda att tillhandahålla den efterfrågade informationen till kommissionen senast den 5 april 2024. Enligt DSA-förordningen har kommissionen också rätt att utfärda böter om svaren från plattformarna skulle innehålla felaktig, ofullständig eller vilseledande information.

Slutsats

I ljuset av den ökande oron för desinformation och deepfakes, finns ett stort behov av en reglering som främjar ansvarstagande. AI-förordningens klassificering av deepfakes som ett AI-system med låg risk medför begränsade skyldigheter för aktörer inom detta område. Trots detta utgör kravet på tydlig märkning av AI-genererat innehåll enligt AI-förordningen ett steg i rätt riktning för att öka medvetenheten hos användare. Med valåret 2024 i antågande är tiden dock knapp för att effektivt hantera skadliga deepfakes innan det är för sent, och som med mycket annan teknik släpar lagstiftningen efter. EU-kommissionens initiativ, med stöd i DSA-förordningen, syftar till att möta denna utmaning. Att balansera kampen mot desinformation med skyddet av yttrandefriheten är emellertid en svår uppgift, men en nödvändig insats för att garantera rättvisa och transparenta valprocesser under året.

Föregående
Föregående

Nytt yttrande om consent or pay och dataskydd -förespråkar ett tredje alternativ och möter kritik

Nästa
Nästa

Secure State Cyber tecknar ramavtal inom Cybersäkerhet med Sinfra värt 200 miljoner