Открыть меню

Tiefe Wahrheiten Deepfakes — Tech, die Können Täuschen Niemanden


In seiner einfachsten Sinne, ein deepfake ist eine Kombination von Gesicht – und voice-Klonen von KI-Technologien, die es gestatten, die Entstehung des Lebens-wie, computer-generated-videos von einer realen person.

Zu entwickeln, um eine qualitativ hochwertige deepfake von einem einzelnen Entwickler sammeln müssen, um zehn Stunden von video-footage im Zusammenhang mit der person, deren Gesicht/Stimme geklont werden, sowie einem menschlichen Nachahmer, die gelernt hat, den Gesichts-Gehabe und Stimme zum Ziel.

Es gibt zwei Menschen, die an der Entstehung eines deepfake, so dass die Ziel Gesicht/Stimme, die von der berühmten person, während die andere gehört einer unbekannten Person, die in der Regel eng mit dem Projekt verbunden.

Von tech, um der Realität

Von einem technischen Standpunkt aus, visual deepfakes entwickelt werden, durch den Einsatz von machine-learning-tools, die in der Lage sind, zu entschlüsseln und Streifen nach unten, die Bilder von allen, die mimik im Zusammenhang mit den zwei Individuen in eine matrix, bestehend aus bestimmten Schlüssel-Attribute, wie die position des targets mit der Nase, Augen und Mund. Darüber hinaus feineren details, wie die textur der Haut und Haare im Gesicht, sind weniger wichtig und können gedacht werden als sekundäre.

Die Dekonstruktion, die im Allgemeinen durchgeführt in einer Weise, dass es ist fast immer möglich, vollständig neu original Bild jeder Seite von seiner Elemente beraubt. Darüber hinaus einer der wichtigsten Aspekte bei der Schaffung einer Qualität deepfake ist, wie gut die endgültigen Bildes rekonstruieren, so dass alle Bewegungen in das Gesicht der Nachahmer realisiert werden, in das Gesicht des Ziels als gut.

Um näher auf die Materie, Matthew Dixon, assistant professor und Forscher an der Illinois Institute of Technology Stuart School of Business, sagte Cointelegraph, die sowohl Gesicht und die Stimme leicht rekonstruiert werden können, die durch bestimmte Programme und Techniken hinzu, dass:

“Sobald eine person wurde Digital geklont, ist es möglich, zu generieren gefälschte video-Aufnahmen von Ihnen etwas zu sagen, darunter zu sprechen von bösartiger propaganda in den sozialen Medien. Die Durchschnittliche social-media-Anhänger wären nicht in der Lage, zu erkennen, dass das video gefälscht war.”

In ähnlicher Weise, sprechen auf die feineren Aspekte der deepfake Technologie, Vlad Müller, CEO des Astraleums Express — eine cross-Plattform-Lösung basiert auf einem innovativen Modell mit seinen eigenen blockchain und verwendet einen proof-of-Behörde Konsens-Protokoll — gesagt Cointelegraph, dass deepfakes sind einfach ein Weg der Synthese von menschlichen Bildern durch die Verwendung eines machine-learning-Technik namens GAN, ein Algorithmus, der setzt auf eine Kombination von zwei neuronalen Netzen.

Der erste erzeugt die Bild-samples, während der zweite unterscheidet sich die Reale Proben von der Fälschung. GAN operationelle Programm können Sie im Vergleich zu der Arbeit von zwei Menschen, so dass die erste person beschäftigt ist in der Fälschung, während die anderen versucht zu unterscheiden, die Kopien von den originalen. Wenn der erste Algorithmus bietet eine offensichtliche Fälschung, die zweite wird sofort bestimmen, nach denen die erste die Verbesserung Ihrer Arbeit durch das Angebot, ein realistischeres Bild.

Über die negativen sozialen und politischen Auswirkungen, die deepfake videos auf die Massen, Steve McNew, eine MIT ausgebildeten blockchain/kryptogeld-Experte und senior managing director bei FTI Consulting, erzählte Cointelegraph:

“Online-videos sind explodiert wie eine mainstream-Quelle von Informationen. Stellen Sie sich social media und Nachrichtenagenturen hektisch und vielleicht unwissentlich teilen verändert clips von Polizei bodycam video, die Politiker in unangenehme Situationen oder weltweit führend liefern entzündliche reden — zum erstellen einer alternativen Wahrheit. Die Möglichkeiten für deepfakes zu schaffen böswillige propaganda und andere Formen von Betrug sind bedeutsam.”

Beispiele deepfakes verwendet für bösartige Zwecke

Da deepfake-Technologie ist in der Lage, zu manipulieren und zu imitieren, die Gesichtszüge und Persönlichkeit Merkmale der realen Welt der Menschen, es wirft viele berechtigte Bedenken, besonders in Bezug auf seine Verwendung für verschiedene Zwielichtige Aktivitäten.

Darüber hinaus seit vielen Jahren, das internet wurde überschwemmt mit einfachen tutorials, die Menschen lehren, wie man erstellen Sie Digital verändert audio – /video-Daten, die täuschen können verschiedene Gesichtserkennungs-Systeme.

Nicht nur das, aber einige wirklich störende Instanzen von audio – /video-manipulation haben vor kurzem aufgetaucht, das in Frage gestellt, die Nützlichkeit deepfakes. Zum Beispiel, eine kürzlich erschienenen Artikel behauptet, dass seit 2014, deepfake Technologie ist so weit Fortgeschritten, solche Ausmaße, dass heute, es kann verwendet werden, um videos, in denen das Ziel kann nicht nur Ausdrücken bestimmter Gefühle, sondern auch die ähnlichkeit zu bestimmten ethnischen Gruppen als auch Aussehen, ein gewisses Alter. Auf das Thema, Martin Zizi, CEO von Aerendir, eine physiologische biometrische Technologie-Anbieter, darauf hingewiesen Cointelegraph:

“AI nicht aus Fehlern lernen, sondern aus der einfachen Statistik. Es mag wie ein kleines detail, aber AI-basierten auf einfachen Statistiken — sogar mit Billionen Byte Daten — nur, dass eine statistische Analyse von vielen Dimensionen. Also, wenn Sie das Spiel mit der Statistik können Sie die Statistik.”

Zizi ging dann auf hinzufügen, dass eine weitere wichtige Facette der Gesichtserkennung ist, dass es basiert auf neuronale Netze, die sind sehr zerbrechlich in der Natur. Von einem strukturellen Standpunkt, diese Netze gedacht werden kann, wie Kathedralen, worin, sobald Sie entfernen ein Eckpfeiler, das ganze Gebäude zusammenbricht. Näher auf das Thema, Zizi sagte:

“Durch das entfernen von 3 bis 5 Pixel von einer 12-Millionen-Pixel-Bild von dem Gesicht einer Person bringt Anerkennung zu null! Forscher haben herausgefunden, dass gegnerische Angriffe auf die Netz-Attacken sind die 3 bis 5 Pixel, die stellen die ‘Eckpfeiler’ in das Bild.”

Eine Letzte große Beispiel deepfake tech missbräuchlich verwendet werden, aus finanziellen Gründen war, wenn der CEO eines ungenannten in Großbritannien ansässige Energie-Unternehmen wurde vor kurzem betrogen in der übertragung von 220.000 Euro ($243,000) auf einem unbekannten Konto, weil er glaubte, dass er am Telefon mit seinem Chef, der Chef der Firma ist die Muttergesellschaft der Unternehmen. In der Realität, die Stimme gehörte zu einem Betrüger gemacht hatte, die Verwendung von deepfake voice-Technologie vorzutäuschen, um die Exekutive.

Blockchain kann helfen, gegen deepfakes

Gemäß einer aktuellen 72-Seiten-Bericht von Zeuge Media Lab, blockchain zitiert wurde, als ein legitimes Mittel für die Bekämpfung der verschiedenen digitalen Bedrohungen vorgebracht deepfake Technologie.

In dieser Hinsicht, mit blockchain, die Menschen können Digital signieren und bestätigen Sie die Authentizität von verschiedenen video-oder audio-Dateien, die direkt oder indirekt mit Ihnen verwandt sind. So, die mehrere digitale Signaturen, die Hinzugefügt, um einen bestimmten video -, desto wahrscheinlicher wird es sein, als authentisch betrachtet.

Verwandte: Als Deepfake Videos Verbreiten, Blockchain Verwendet Werden Können, um Sie zu Stoppen

Kommentierte die Angelegenheit, Greg Forst, director of marketing für Factom Protokoll, sagte Cointelegraph, dass, wenn es um deepfakes, blockchain hat das Potenzial für die Globale tech-community mit einer einzigartigen Lösung — oder zumindest ein wichtiger Teil davon. Er wies darauf hin:

“Wenn video-Inhalte auf die blockchain, sobald es erstellt wurde, zusammen mit einer überprüfung-tag oder Grafik, es stellt eine Straßensperre vor deepfake Bemühungen. Jedoch, dies hängt von video-content Hinzugefügt wird, um die blockchain von Anfang an. Von dort aus digitalen Identitäten muss Unterstreichung der Herkunft und der Ersteller der Inhalte. Die Sicherung der Daten an der Quelle und haben eine Standardisierung für die Medien wird ein langer Weg zu gehen.”

McNew ist auch der Meinung, dass aufgrund der blockchain insgesamt Unveränderlichkeit, sobald eine bestimmte Daten-block wurde bestätigt durch das Netzwerk, dessen Inhalt nicht verändert werden kann. Also, wenn videos (oder auch Fotos, für diese Angelegenheit) gemacht werden, fließen sofort in eine blockchain Prüfung der Anwendung, bevor Sie zur Verfügung gestellt für den Austausch, verändert-videos können leicht identifiziert werden als fake.

Schließlich, eine ähnliche Idee wurde gemeinsam von Miller, wer ist der Meinung, dass die blockchain-Technologie in Verbindung mit der künstlichen Intelligenz können helfen, lösen viele der Datenschutz-und Sicherheitsbedenken vorgebracht deepfakes. Er fügte hinzu:

“AI perfekt meistert mit der Sammlung, Analyse, Sortierung und übermittlung von Daten, die Verbesserung der Geschwindigkeit und Qualität der Abwicklung interner Prozesse. Die blockchain, in der wiederum die “macht sicher”, dass niemand eingreift in die Arbeit der AI — es schützt die Daten und die Reihenfolge von jedem übergriff.”

Blockchain-Technologie hat seine eigenen Grenzen

So wie die Dinge stehen, gibt es ein paar kleine Nachteile, die verhindern blockchain-Technologie wird aktiv überwacht deepfakes auf das internet. Für den Anfang, die Technologie beschränkt sich in Ihrer umfassenden Skalierbarkeit, da die Menge an Rechenleistung und Speicher, die benötigt werden, um Kampf-Digital bearbeitet-A/V-Daten in Echtzeit-ist sehr intensiv.

Ein weiteres potenzielles Problem, das entstehen konnte, als Folge der blockchain verwendet für deepfake Erkennung ist eine wesentliche Eindämmung des Crowdsourcing-video-Inhalte (wie beispielsweise das material, das derzeit auf YouTube verfügbar). Auf die Frage, Dixon hingewiesen:

“Wie kann jemand in einem Armen Land erreichen, die die Welt mit Ihrer Nachricht, wenn Sie genehmigt werden, durch eine in Silicon Valley ansässige Unternehmen? Sollten wir uns anvertrauen-tech-Unternehmen mit solch einer Leistung? Freiheit ist immer gefährdet, wenn das Vertrauen schwächt.”

Einer ähnlichen Meinung ist auch Hibryda, Autor und Gründer von Bitlattice, eine distributed-ledger-system, das ein multidimensionales Gitter-Struktur um Themen wie Skalierbarkeit, Sicherheit, timing, etc. In seiner Ansicht:

“Der größte Nachteil der blockchain tech liegt in Ihrer Unfähigkeit, zu bestimmen, ob die signierte Medien wirklich echt ist oder nicht. Aber das ist nicht eine interne Angelegenheit von blockchain oder Verwandte Technologien — Sie nur die Hauptbücher, die sind extrem schwer zu manipulieren. Es ist extern, und es gibt keine gute Weise zu lösen. Während crowd-powered-überprüfung könnte eine teilweise Lösung, da Massen manipuliert werden können, es ist ziemlich unmöglich, ein system zu erstellen, dass bietet zuverlässige und Objektive Tatsache-überprüfung.”

Jedoch, Forst erzählte Cointelegraph, dass, während die Mehrheit der Menschen neigen dazu zu glauben, dass die Nutzung blockchain könnte zu teuer werden für deepfake Erkennung, gibt es mehrere open-source-Lösungen suchen, dies zu tun. Forst dann Hinzugefügt, dass “Der größte Nachteil ist, dass die blockchain nicht lösen das problem mit deepfakes in seiner Gesamtheit, sondern es kann ein Teil der Lösung.”

Fügen Sie einen Kommentar ein…

Source: cointelegraph.com

Leave a Reply

Your email address will not be published. Required fields are marked *

© 2020 Crypto-News · All rights reserved
<<2018>>