Der Faktor, der zu einem Anstieg der Betrügereien bei den Bewohnern von Mar del Plata führte

Der Faktor, der zu einem Anstieg der Betrügereien bei den Bewohnern von Mar del Plata führte
Der Faktor, der zu einem Anstieg der Betrügereien bei den Bewohnern von Mar del Plata führte
-

Es ist der enorme Fortschritt der KI, der Cyber-Betrügereien auslöst, die keine Grenzen kennen und in Tausenden von Städten verankert sind, in dem oben genannten Format, das sich aus der Vereinigung zweier Wörter ergibt: „Voice“ und „Phishing“ und bezieht sich auf die Art der Bedrohung, die einen betrügerischen Telefonanruf mit zuvor aus dem Internet erlangten Informationen kombiniert.

„Wir müssen anfangen, alles, was wir sehen und hören, nicht zu glauben“, sagte der Experte, der verriet, dass es Anrufe aus Indien gebe, die darauf abzielten, die Stimmen potenzieller Opfer aufzuzeichnen, und daher riet, sie nicht zu beantworten.

Der Befragte gab an, dass ein dreisekündiges Sample ausreicht, um eine Stimme nachzubilden.

Wenn die Aufnahme etwa eine halbe Minute dauert, „wäre es unmöglich zu sagen, ob sie echt ist oder nicht.“ „Ich habe einen Videoanruftest mit einer kostenpflichtigen Version künstlicher Intelligenz durchgeführt und es ist unmöglich zu sagen, ob wir vor der ursprünglichen Person stehen“, fügte er hinzu.

Einbetten – SCAM ALERT!: STIMMEN MIT KÜNSTLICHER INTELLIGENZ KLONEN

Internationale Studien

Das auf Computersicherheit spezialisierte Unternehmen Kaspersky gab bekannt, dass Phishing-Angriffe mithilfe von KI im letzten Jahr in Lateinamerika um 617 % zugenommen haben. Das heißt, ein deutlicher Anstieg ist bei Online-Betrügereien zu verzeichnen, bei denen Angreifer sich als vertrauenswürdige Instanzen wie Banken, Unternehmen oder beliebte Dienste ausgeben, um an vertrauliche Informationen wie Passwörter, Kreditkartennummern oder persönliche Daten zu gelangen.

Laut von der Website El Cronista reproduzierten Studien verzeichnete Kaspersky im Jahr 2023 286 Millionen versuchte Phishing-Angriffe. „Es ist auffällig, dass der Anstieg unter anderem auf das Aufkommen von Tools zurückzuführen ist, die künstliche Intelligenz nutzen, um die Erstellung von Betrügereien in einem zu erleichtern.“ „automatisiert“, erklärten die Experten.

So wie ein Student sich an einen KI-Chatbot wenden und von ihm verlangen kann, einen Artikel über die politischen und wirtschaftlichen Bedingungen zu schreiben, die zum Ausbruch des Zweiten Weltkriegs führten, kann jeder Cyberkriminelle das Modell der künstlichen Sprache nutzen, allerdings für viel dunklere Zwecke. Ein Beispiel wäre die Aufforderung an die Maschine, das Format eines Bankbriefs zu imitieren, um eine E-Mail zu schreiben, die so überzeugend klingt, dass der Empfänger persönliche Daten eingibt, um einen angeblichen Fehler in seinem Konto zu beheben.

Mithilfe von Algorithmen für maschinelles Lernen implementiert die KI formale grammatikalische Konstruktionen, ohne Rechtschreibfehler und möglicherweise mit personalisierten Details (sofern der Betrüger zusätzliche Opferdaten eingegeben hat); Alles Anzeichen, die, wenn sie nicht vorhanden waren, die bevorzugte Warnung zur Identifizierung eines Betrugsfalls waren. Mit dem Aufkommen von ChatGPT und anderen KI-Tools, die überzeugende Texte generieren können, wird es notwendig sein, den Blick zu schärfen, da bei Phishing-Angriffen wahrscheinlich keine Rechtschreibfehler mehr zu finden sind.

Das Risiko von Deepfakes

Um es einfach und prägnant auszudrücken: KI erleichtert die Produktion und Verbreitung irreführender Nachrichten sowie die Nachahmung bestimmter Personen. Tatsächlich warnten Kaspersky-Experten auch vor der wachsenden Bedrohung durch Deepfakes; Inhalte, bei denen Bilder und Videos verändert werden, um andere Informationen als das Original anzuzeigen, sodass es beispielsweise so aussieht, als würde eine Person Dinge sagen oder tun, die sie nie getan hat.

Obwohl die Verbreitung dieser Erpressung sowohl den Ruf als auch die Finanzen von Institutionen und Nutzern beeinträchtigen kann, zeigen Unternehmenszahlen, dass die Mehrheit der Lateinamerikaner nicht weiß, was ein Deepfake ist (70 %), und nicht weiß, wie sie Deepfake-Inhalte erkennen können (67 %).

In diesem Sinne wies das Cybersicherheitsunternehmen darauf hin, dass eine der Maßnahmen zur Vermeidung von Täuschungen im Zusammenhang mit neuen Technologien darin bestehe, sich der neuesten Entwicklungen und ihrer potenziellen Risiken bewusst zu sein. Darüber hinaus müssen Benutzer Vorsicht und Skepsis walten lassen, wenn sie mit E-Mails, Text- oder Sprachnachrichten, Anrufen, Videos oder anderen Multimedia-Inhalten konfrontiert werden, auch wenn diese sehr vertrauenswürdig erscheinen.

 NULL      

-

PREV McDonald’s scheitert mit pflanzlichen Burgern
NEXT Yamaha präsentiert ein neues Mitglied der FZ-Familie mit großen technologischen Fortschritten