När AI används för att angripa oss – kan vi skydda oss?
Den senaste tidens stora snackis inom IT-världen har utan tvekan varit AI och chatbotar, exempelvis ChatGPT. Användning av AI blev plötsligt tillgängligt för fler än tidigare. Men i samband med det uppstod också oro och frågor kring vår egen säkerhet. Marcus Nohlberg, docent i cybersäkerhet på Högskolan i Skövde förklarar hur angrepp har utvecklats, hur vi påverkas idag, men också hur vi kan börja förbereda oss, som organisationer, individer och föräldrar.
Det senaste året har kännetecknats av en intensiv debatt om AI, och dess användning. Något vi inom datavetenskapen har talat om i årtionden blev plötsligt tillgängligt för de breda massorna och visade sig vara synnerligen användbart. Den inledande entusiasmen kompletterades dock snart med att oro väcktes. Vad ska AI användas till? Vem bestämmer vilket material AI ska tränas på? Kan vi pausa utvecklingen? Vill vi pausa utvecklingen? Och, vilka jobb kommer påverkas?
Inom området informations- och cybersäkerhet väcktes frågor om ifall det var möjligt att använda AI för att skapa angrepp mot människor, människor som ju visar sig vara den största säkerhetsluckan generellt. Det är i sig inte en ny fråga, redan för femton år sedan tittade vi på hur social manipulation skulle kunna automatiseras via chatbotar, men då var tekniken inte mogen för att göra det i stor skala, även om människor redan då var sårbara.
Idag är tekniken här, och den är lättillgänglig. Plötsligt har de attacker mot människor som förr varit tidskrävande och krävt talang, blivit allmänt tillgängliga med bara några knapptryck. Vi måste ställa oss frågan vad en människa är och om vi ens kan veta om det är en människa på andra sidan mejlet, i chatten eller via telefon.
Frågan är hur rustade vi är att hantera denna antagonistiska, illasinnade, användning av AI för att lura, manipulera och utnyttja människor? Hur väl hanterar din verksamhet detta, och hur väl hanterar du det själv? Hur väl rustad står du som förälder att hjälpa dina barn att hantera detta?