Därför utökar Meta AI-genererad bildmärkning
Meta, moderbolaget till Facebook, Instagram och Threads, utvidgar sina insatser för att märka AI-genererade bilder på sina plattformar.
Initiativet omfattar syntetiskt innehåll skapat av externa generativa AI-verktyg, baserat på förekomsten av industristandardindikatorer för AI-generering som Meta kan identifiera. Denna utveckling syftar till att öka transparensen inför ett globalt politiskt landskap i beredskap för flera kritiska val, även om omfattningen av syntetiskt kontra autentiskt innehåll på Metas plattformar förblir ospecificerad.
Förbättrad detektering och märkning
Meta har proaktivt märkt fotorealistiska bilder genererade av sitt eget verktyg, “Imagine with Meta”, sedan dess start i december föregående år. Utvidgningen till att inkludera innehåll producerat av andra företags verktyg markerar ett viktigt steg för att hantera spridningen av syntetiska bilder. Metas president, Nick Clegg, framhävde pågående samarbeten med branschkollegor för att etablera tekniska standarder för identifiering av AI-genererat innehåll och lovade mer omfattande märkning på alla stödda språk på plattformarna under de kommande månaderna.
Hantering av AI-genererade videor och ljud
Utmaningen med att detektera AI-genererade videor och ljud är mer komplex, främst på grund av bristande användning av märknings- och vattenmärkningstekniker nödvändiga för effektiv identifiering. För att motverka potentiella manipulationer utforskar Meta olika strategier, inklusive utveckling av klassificerare för att upptäcka AI-genererat innehåll utan synliga markörer och för att förbättra robustheten i osynliga vattenmärkningstekniker.
Policyjusteringar och verkställighet
Med tanke på tekniska begränsningar reviderar Meta sin policy för att kräva att användare avslöjar “fotorealistiska” AI-genererade videor eller “realistiskt klingande” ljud som syntetiska. Underlåtenhet att följa detta krav på manuell redovisning kan leda till sanktioner enligt Metas gemenskapsnormer. Denna åtgärd syftar till att minska risker för felinformation, särskilt i sammanhang med betydande allmän oro.
Utnyttjande av generativ AI för verkställighet av policyer
Meta utforskar också potentialen hos generativ AI, inklusive stora språkmodeller (LLM), för att stärka sin förmåga att hantera policyer. Preliminära tester visar att LLM kan överträffa befintliga maskininlärningsmodeller i att identifiera policyöverträdelser. Genom att effektivisera processer för innehållsgranskning syftar Meta till att allokera fler resurser till granskning av potentiellt regelbrytande innehåll.
Faktakontroll och märkningskomplexitet
AI-genererat innehåll på Metas plattformar är föremål för oberoende faktakontroll, vilket kan resultera i ytterligare etiketter som indikerar avfärdad information. Denna skiktning av etiketter, inklusive möjligheten att innehåll markeras som både AI-genererat och faktakontrollerat, introducerar en ny nivå av komplexitet för användare som navigerar i informationens trovärdighet.
Slutsats
När Meta framskrider med sitt märkningsinitiativ för AI-genererade bilder, är de bredare konsekvenserna för felinformation, särskilt under ett valfyllt år, avsevärda. Även om dessa ansträngningar representerar steg mot större öppenhet och ansvar, utgör det utvecklande landskapet för digitalt innehåll och AI-teknologi pågående utmaningar för både plattformar, användare och regulatorer.