Met het oog op verkiezingen in de VS, verwijdert Facebook deepfakes
In Amerika is het verkiezingsjaar begonnen. Hiervoor heeft Facebook het beleid met betrekking tot het aanpakken van deepfakes aangescherpt. Dit zijn video’s die door kunstmatige intelligentie worden gemanipuleerd.
Er wordt gevreesd dat partijen deze technologie gaan gebruiken om beelden van politici en presidentskandidaten te manipuleren. Wanneer zo’n video viraal gaat op Facebook, kan dit grote gevolgen hebben voor degene die in beeld te zien is. In september heeft ook het Nederlandse Openbaar Ministerie zijn zorgen geuit over deze technologie.
Criteria voor verwijderen
Facebook heeft in een blogpost aangekondigd dat gemanipuleerde media voortaan worden verwijderd. Hieronder worden video’s verstaan die zijn bewerkt of veranderd – afgezien van aanpassingen voor kwaliteit of helderheid – op manieren die niet zijn te zien. Doordat iemand in een video iets lijkt te zeggen, maar dit in werkelijkheid helemaal niet zo is, kunnen mensen worden misleid.
Wanneer het gaat om een product van kunstmatige intelligentie, waarin content wordt vervangen, samengevoegd of over een video heen wordt geplaatst en hierdoor het beeld authentiek overkomt, wordt deze ook verwijderd.
Facebook benadrukt dat deze regels niet van toepassing zijn op satire of parodie. Ook video’s waarin alleen woorden zijn veranderd of weggelaten niet onder het nieuwe Facebook-beleid.
Gemanipuleerde video’s
In het debat wordt vaak de video opname van Nancy Pelosi, voorzitter van het Huis van Afgevaardigden, en tevens machtigste Amerikaanse Democraat genoemd. In mei 2019 verscheen er een video op Facebook waarin het leek alsof ze stamelde en slecht uit haar woorden kwam. Later bleek deze video vertraagd.
Hoewel dit geen voorbeeld is van het gebruik van echte deepfake-technologie, was het wel onderwerp van gesprek in het debat over waar de grenzen liggen. Facebook heeft toen de video online laten staan.
Tegenover de NOS heeft Facebook bevestigd dat de video van Pelosi onder de nieuwe regels ook mag blijven staan. Het bereik van de video is, volgens het bedrijf, flink beperkt na beoordeling door een factchecker. Toch is de video ruim 1,4 miljoen keer bekeken net nadat deze gepubliceerd was.
Digitaal forensisch expert (aan de Universiteit van Californië), Hany Farid, uit zijn zorgen over het Facebook-beleid tegenover The Washington Post. “Video’s als deze zijn met simpele technische hulpmiddelen en zonder Artificial Intelligence gemaakt, maar zijn net zo misleidend als deepfake-video’s.” Farid vraagt zich af waarom Facebook niet naar het bredere probleem van misleidende video’s kijkt en zich alleen maar op deepfakes richt.
In een reactie op die kritiek zegt Facebook dat het bedrijf ontwikkelingen rond deepfakes in de gaten zal houden en het beleid hierop zal blijven afstemmen.
Bron: NOS.nl