Ponieważ eksperci ostrzegają, że obrazy, dźwięk i wideo generowane przez sztuczną inteligencję mogą mieć wpływ na jesienne wybory prezydenckie w USA, OpenAI udostępnia narzędzie zaprojektowane do wykrywania treści tworzonych przez własny, popularny generator obrazów DALL-E. Poinformował o tym The New York Times.
► Przeczytaj Ministerstwo Finansów na Instagramie: najważniejsze wiadomości o inwestycjach i finansach
Według OpenAI to narzędzie to tylko niewielka część tego, co będzie potrzebne do zwalczania deepfakes w nadchodzących miesiącach i latach.
Firma udostępni swój nowy detektor deepfake małej grupie badaczy dezinformacji, aby tak mogą przetestować narzędzie w rzeczywistych sytuacjach i pomóc zidentyfikować sposoby jego ulepszenia.
„To impuls do nowych badań” – powiedziała Sandhini Agarwal, badaczka OpenAI, która koncentruje się na bezpieczeństwie i polityce.
„To impuls do nowych badań”. p>
OpenAI twierdzi, że detektor może poprawnie zidentyfikować 98,8% obrazów generowanych przez DALL-E 3, najnowszą wersję generatora obrazów.
Firma zauważyła jednak, że jej narzędzie nie jest przeznaczone do wykrywania obrazy utworzone przez inne popularne generatory, takie jak Midjourney i Stability.
< p>OpenAI poinformowało również, że opracowuje znaki wodne dla dźwięków generowanych przez sztuczną inteligencję, aby można je było natychmiast zidentyfikować. Firma ma nadzieję, że te znaki wodne będą trudne do usunięcia.