Auch wenn die gefälschten Videos der Filmschauspielerin Rashmika Mandanna und des tanzenden Premierministers Narendra Modi das Land schockierten, warnen Cybersicherheitsexperten vor einer noch viel tieferen Krise.
Dieses Mal könnten Hacker künstliche Intelligenz nutzen, um Deep-Fake-Stimmen zu erstellen und zu verwenden, die immer noch schwieriger zu unterscheiden sind, sagten Cybersicherheitsexperten von Kaspersky.
Sie führten das aktuelle Beispiel eines neuen Beatles-Songs an, der mithilfe künstlicher Intelligenz erstellt wurde und Teile einer alten Aufnahme kombiniert. Während der positive Aspekt der KI Käferliebhabern Freude bereitete, ist es an der Zeit, dass wir uns auf die Schattenseiten des Einsatzes von KI konzentrieren, die Deepfake-Stimmen erzeugen können.
Stimme Deepfakes
Was können Voice-Deepfakes? Stellen Sie sich vor, Sie erhalten einen Anruf mit einer Stimme wie die Ihrer Eltern, Ihres Bruders oder Ihres besten Freundes. Oder jemand nimmt eine gefälschte Nachricht mit der Stimme einer Berühmtheit auf. Dies kann verheerende Folgen haben, da es für normale Menschen sehr schwierig ist, zwischen der falschen und der Originalstimme zu unterscheiden.
„Open AI hat kürzlich ein Audio-API-Modell demonstriert, das menschliche Sprache und Spracheingabetext generieren kann. Bisher kommt nur diese Open-AI-Software der echten menschlichen Sprache am nächsten. „In Zukunft können solche Modelle auch zu einem neuen Werkzeug in den Händen von Angreifern werden“, sagte ein Experte von Kaspersky.
Die Audio-API kann den angegebenen Text per Sprache abspielen, während Benutzer auswählen können, mit welchen der vorgeschlagenen Sprachoptionen der Text ausgesprochen werden soll. Das Open-AI-Modell kann in seiner bestehenden Form nicht zur Erstellung von Deepfake-Stimmen verwendet werden, ist jedoch ein Hinweis auf die rasante Entwicklung von Technologien zur Spracherzeugung.
--„In den letzten Monaten wurden immer mehr Tools veröffentlicht, um eine menschliche Stimme zu erzeugen. Früher benötigten Benutzer grundlegende Programmierkenntnisse, doch jetzt wird es einfacher, damit zu arbeiten. „In naher Zukunft können wir mit Modellen rechnen, die sowohl Benutzerfreundlichkeit als auch Qualität der Ergebnisse vereinen“, sagte er.
Wie schützt man sich?
„Der beste Weg, sich zu schützen, besteht im Moment darin, aufmerksam zuzuhören, was Ihr Anrufer Ihnen am Telefon sagt. Wenn die Aufnahme von schlechter Qualität ist, Geräusche enthält und die Stimme roboterhaft klingt, reicht das nicht aus, um den Informationen, die Sie hören, zu vertrauen“, sagte Dmitry Anikin, Senior Data Scientist bei Kaspersky.
„Dennoch müssen Sie sich möglicher Bedrohungen bewusst sein und darauf vorbereitet sein, dass fortgeschrittener Deepfake-Betrug in naher Zukunft eine neue Realität wird“, sagte er.
Eine weitere gute Möglichkeit, die Wahrhaftigkeit des Anrufers zu testen, besteht darin, einige unkonventionelle Fragen zu stellen, z. B. nach den Büchern, die man liest, oder nach den Farben, die man mag.
Dies ist Ihr letzter kostenloser Artikel.