Microsoft kali ini memperkenalkan sebuah teknologi baru yang bertujuan untuk melawan deepfake, karena takutnya dapat digunakan untuk menyebarkan informasi palsu. Deepfake atau synthetic media sendiri cara kerjanya adalah dengan memanfaatkan AI ( artificial intelligence) untuk mengubah foto, video, atau file audio dengan cara yang sulit dideteksi untuk membuat objek yang dibuatnya tampak seperti melakukan atau mengatakan sesuatu yang tidak mereka lakukan atau yang tidak seharusnya.
Microsoft Video Authenticator adalah tools yang menganalisis foto atau video ketika frame dalam keadaan diam untuk memberikan presentase chance atau confidence score, yang menjukan adanya manipulasi. Untuk kasus video, alat ini dapat memberikan skor secara real-time pada setiap frame saat video diputar. Teknologi ini awalnya dikembangkan oleh Microsoft Research dalam koordinasi dengan tim AI dengan tanggung jawab langsung dari Microsoft dan komite Microsoft AI, Ethics and Effects in Engineering and Research (AETHER).
Microsoft Video Authenticator bekerja dengan cara mendeteksi batas pencampuran elemen yang dimasukan dalam deepfake dan ketika pemudaran halus yang tentu saja tanda-tanda tersebut sangat susah dideteksi dengan mata telanjang.
Teknologi ini tidak dirilis ke publik secara langsung. Microsoft bekerjasama dengan AI Foundation, sebuah perusahaan komersial dan nonprofit yang ada di San Francisco. Video Authenticator pada awalnya hanya tersedia melalui Reality Defender 2020 (RD2020),sebuah yayasan untuk organisasi yang terlibat dalam proses demokrasi, termasuk outlet berita dan kampanye politik.