Während Lula KI aus dem globalen Süden fordert, verzeichnet Brasilien einen besorgniserregenden Anstieg von Deepfakes

Während Lula KI aus dem globalen Süden fordert, verzeichnet Brasilien einen besorgniserregenden Anstieg von Deepfakes
Während Lula KI aus dem globalen Süden fordert, verzeichnet Brasilien einen besorgniserregenden Anstieg von Deepfakes
-

Der Präsident Brasiliens Luiz Inácio Lula da Silva (EFE/Andre Borges)

In seiner Rede am Donnerstag vor dem Publikum der Internationalen Arbeitsorganisation (ILO) in Genf, Schweiz, sagte der brasilianische Präsident Lula beschuldigte reiche Länder, künstliche Intelligenz (KI) zu schaffen, um „zu versuchen, den Rest der Menschheit zu manipulieren“. Aus diesem Grund bat Lula die ILO und die UN, ein Projekt für die „Künstliche Intelligenz aus dem globalen Süden“, ohne näher darauf einzugehen, was mit dieser Unterscheidung gemeint ist. Die Erklärungen des brasilianischen Präsidenten kamen kurz vor seiner Teilnahme am G7-Treffen in Italien, wo das Thema künstliche Intelligenz eines der Themen war, die die Debatte zwischen den sieben Mitgliedsländern der Gruppe im Mittelpunkt standen. Sogar die Papst Francisco intervenierte zu diesem Thema und warnte vor den Risiken. „Künstliche Intelligenz könnte zu größerer Ungerechtigkeit zwischen fortgeschrittenen Nationen und Entwicklungsländern, zwischen dominanten sozialen Klassen und unterdrückten sozialen Klassen führen und damit die Möglichkeit einer Kultur der Begegnung zugunsten einer Kultur des Wegwerfens gefährden“, sagte der Papst.

In Brasilien ist KI weiter verbreitet und technologisch weiter fortgeschritten als angenommen. Der Bericht über künstliche Intelligenz des Distrikts 2023, einer führenden Plattform für neue Technologien in Lateinamerika, ergab, dass Brasilien sich durch die höchste Konzentration an Unternehmen und das höchste Investitionsvolumen in KI auszeichnet und 73,65 % aller Start-ups ausmacht, womit es sich positioniert regionaler Marktführer für Entwicklung und Innovation in Lateinamerika. Brasilianische KI-Startups erhielten im Jahr 2022 Investitionen in Höhe von 2 Milliarden US-Dollar. Selbst Giganten der Telekommunikationselektronik wie Motorola setzen auf den lateinamerikanischen Giganten, der als einer der vielversprechendsten Pole der Welt in diesem Sektor gilt. Das amerikanische Unternehmen hat 25 Millionen Reais, 4,65 Millionen Dollar, in die Forschung der Bundesuniversität Amazonas (UFAM) investiert, die bei dem Projekt auch mit den Universitäten Acre, Campinas und Pernambuco zusammenarbeitet. Nur wenige wissen, dass Motorola die gesamte Malware-Erkennung, HDR-Bildqualität (High Dynamic Range) in Brasilien mit Techniken der künstlichen Intelligenz, Bildverarbeitung, Android-Systemsicherheit und dem künstlichen Intelligenzzentrum übernimmt.

Die andere Seite der Medaille zeigt jedoch auch ein Brasilien, wo KI wird betrügerisch eingesetzt. Nach Angaben von Sumsub, einem Technologieunternehmen, das Plattformen zur Betrugsüberprüfung anbietet, Der lateinamerikanische Riese gehört zu den 10 Ländern der Welt mit der höchsten Anzahl an Deepfakes, die im ersten Quartal 2024 entdeckt wurden. Von 2023 bis 2024 sind sie um 840 % gewachsen. Deepfakes, also die Verfälschung von Fotos und Videos durch KI, sind zu einer globalen Bedrohung geworden, da ihre gesamte Manipulationsfähigkeit die Ursache für Tausende von Betrügereien und Verbrechen wie Mobbing und sexuelle Erpressung ist. Was Brasilien betrifft, so sind in den letzten Monaten in Meta betrügerische Anzeigen erschienen, in denen die Stimme und das Gesicht eines bekannten Bolsonaro-Abgeordneten verwendet wurden. Nikolas Ferreiraund förderte falsche Angebote zum Kauf von Starlink-Geräten oder sogar Rolex-Uhren. Durch die Täuschung dieser Deepfakes wird der ahnungslose Leser auf gefälschte Seiten geleitet, die die offiziellen imitieren, und verliert Tausende von Reais. Es wurden auch Deepfakes eingesetzt, die das Image eines bekannten brasilianischen Geschäftsmannes manipulierten. Luciano Hangwegen falscher Spendensammlung für die Opfer des von Überschwemmungen verwüsteten Bundesstaates Rio Grande Sul.

Lula mit Papst Franziskus beim G7. Der Papst nahm an einem Panel zum Thema künstliche Intelligenz teil (Vatican Media/Handout via REUTERS)

Hinzu kommt das Problem der Aufdeckung von Minderjährigen und Rassenvorurteilen. Das geht aus einem am Montag veröffentlichten Bericht der Nichtregierungsorganisation hervor Human Rights Watch, Fotos von brasilianischen Kindern und Jugendlichen werden ohne deren Wissen oder Zustimmung zur Entwicklung von Werkzeugen der künstlichen Intelligenz verwendet. Die Analyse kam zu dem Schluss, dass LAION-5b, ein Datensatz, der zum Trainieren beliebter Tools für künstliche Intelligenz verwendet wird und aus Informationen aus dem Internet erstellt wurde, Links zu identifizierbaren Fotos von Kindern enthält. Zusätzlich zu den Fotos stellt die Plattform auch die Namen einiger Kinder in den Untertiteln oder in der URL bereit, unter der das Foto gespeichert ist. In vielen Fällen sind Identitäten rückverfolgbar, mit Informationen darüber, wann und wo sich das Kind zum Zeitpunkt der Aufnahme aufgehalten hat. Insgesamt wurden 170 Fotos von Kindern aus zehn brasilianischen Bundesstaaten entdeckt. Nach Angaben der NGO handelt es sich dabei jedoch lediglich um einen kleinen Ausschnitt des Problems, das gigantisch erscheint. LAION-5b verfügt über 5,85 Milliarden Bilder und Bildunterschriften und nur 0,0001 % der Datenbank wurden im Bericht analysiert.

Es ist auch in Brasilien angekommen, allerdings noch im Testmodus, Das KI-Tool von WhatsApp, mit dem Sie Figuren mit einem einfachen Textbefehl erstellen können. Obwohl die Anwendung Wörter wie „Kind“, „Kokain“ und „Magersucht“ blockiert, können Sie damit Figuren von Menschen mit Schusswaffen erstellen, sogar mit großkalibrigen Waffen wie Kalaschnikow-Gewehren. Da die von der KI generierten Zeichnungen so weit wie möglich vereinfacht sind und den Eindruck erwecken, Kinder darzustellen, gibt es außerdem viele Figuren, die schwarze Kinder mit Waffen in der Hand zeigen. Dies ist ein heikles Thema in Brasilien, wo viele Kinder in Favelas Waffen benutzen.

In sozialen Netzwerken wie InstagramExperten haben zudem KI-Mängel entdeckt, die rassistische Vorurteile schüren können. Beispielsweise können einige Filter, die auf Schwarze angewendet werden, deren Gesichter und krauses Haar unscharf machen. Mit Effekten, die Make-up simulieren, wie zum Beispiel „Skin Smoothing Texture“ (Hautglättende Textur auf Englisch), wird das Gesicht gräulich und sogar unscharf. Für Silvana Bahia, Koordinatorin von PretaLab, einem Projekt, das die technologische Produktion schwarzer und indigener Frauen fördert, „wir verwenden Algorithmen, um zu versuchen, die Zukunft vorherzusagen, aber mit Daten aus der Vergangenheit, in der schwarze Menschen stereotypisiert werden.“ Wie wird diese Zukunft integrativer sein, wenn wir uns Daten ansehen, in denen Stereotypen wiederholt werden?“ Künstliche Intelligenz wird durch Bildlesealgorithmen generiert, die aus einer Datenbank mit Tausenden von Bildern trainiert werden. Je mehr Bilder das Programm liest, desto besser erkennt es sie. Das Problem besteht darin, dass es in dieser Datenbank nur wenige schwarze Gesichter gibt. Zusammenfassend lässt sich sagen, dass KI in Brasilien, wo laut der Volkszählung von 2022 55,5 % der Bevölkerung als Schwarze oder Mischlinge definiert wurden, Rassenstereotypen zu verstärken scheint, wie die Zeitung ebenfalls berichtete Folha de São Paulo, die mithilfe der ChatGPT-Funktion darum bat, Bilder einer brasilianischen Frau zu generieren. Was zum Vorschein kam, war eine gebräunte Frau mit einheimischem Schmuck inmitten eines tropischen Dschungels. Ursache für dieses Klischee ist laut Experten der Mangel an differenzierter Datenlage zum Thema. Dies ist nicht nur ein Versagen der künstlichen Intelligenzmodelle von OpenAI. Sogar Google hat die Fähigkeit seines Gemini-Modells, Bilder zu generieren, deaktiviert, nachdem die Plattform historisch ungenaue Darstellungen wie asiatische und schwarze Nazi-Soldaten anbot.

Auch die bevorstehenden Kommunalwahlen im Oktober in Brasilien sind ein wichtiger Lackmustest für das Land, wenn es um den möglichen Missbrauch von KI geht.. Nach Angaben des Technologieunternehmens Sumsub gab es von 2023 bis 2024 eine Anstieg des Auftretens von Deepfakes um 245 % auf der ganzen Welt, mit mehrfachem Wachstum in einigen Ländern, in denen Wahlen stattfanden oder im Jahr 2024 stattfinden werden, wie den Vereinigten Staaten, Indien, Indonesien, Mexiko und Südafrika. Die politische Polarisierung in Brasilien könnte sich verstärken, von den einfachsten Kommunikationsebenen wie den bereits im Umlauf befindlichen WhatsApp-Aufklebern mit Zeichnungen eines mürrischen Bolsonaro und Lula mit Herzen und Blumen bis hin zu strategischer Desinformation, die von brasilianischen Politikern, aber auch von ausländischen Politikern genutzt werden könnte Akteure mit der Absicht, die Kommunalwahlen als Beweis für die Präsidentschaftswahlen 2026 zu nutzen. Genau aus diesem Grund hat das Oberste Wahlgericht (TSE) den Einsatz von Deepfakes während des Wahlkampfs verboten. Im April hat der Vertreter der Brasilianischen Sozialistischen Partei (PSB) Tabata Amaral, eine Bürgermeisterkandidatin der Stadt San Pablo, hatte in ihren sozialen Netzwerken ein Video mit einem Deepfake veröffentlicht, in dem das Gesicht des aktuellen Bürgermeisters Ricardo Nunes das des Schauspielers Ryan Gosling ersetzte, der Ken im Film „Barbie“ spielt. . Amaral löschte das Video später. Über das TSE-Verbot hinaus bleibt das Problem, wie man die Masse an Deepfakes identifizieren kann, von denen befürchtet wird, dass sie im Wahlkampf in soziale Netzwerke eindringen. Diese realitätsnahen Manipulationen könnten genutzt werden, um Kandidaten zu verleumden, Fake News zu verbreiten und die öffentliche Meinung zu verzerren, mit gefälschten Videos von hetzerischen Reden oder fiktiven Geständnissen.

Lula da Silva mit Giorgia Meloni am zweiten Tag des G7-Gipfels in Borgo Egnazia, Italien (EFE/ETTORE FERRARI)

Aber die Herausforderung ist global, und deshalb kann sich nicht einmal Brasilien der Debatte über die KI-Regulierung entziehen. Die G7, an deren Treffen Lula auf Einladung des italienischen Premierministers teilnahm, Giorgia Meloni, arbeitet an der gesetzgeberischen Front. Auf dem letztjährigen Gipfel in Japan haben die G7 den sogenannten „Hiroshima-Prozess“ zur Förderung globaler Maßnahmen für fortschrittliche KI-Systeme und einen internationalen Verhaltenskodex für Entwickler zur Förderung verantwortungsvoller und standardisierter Praktiken in diesem Sektor ins Leben gerufen. Zu den 11 Grundprinzipien des Hiroshima-Prozesses gehört auch das Risikomanagement, das die Annahme von Bewertungsmaßnahmen, einschließlich interner und externer Tests, und die Minderung verschiedener Arten von Risiken, von Chemikalien bis hin zur Cybersicherheit, fördert. Was die Europäische Union (EU) betrifft, so wurde im März dieses Jahres das Gesetz über künstliche Intelligenz verabschiedet. Es handelt sich um ein Regelwerk für die Entwicklung, Vermarktung, den Einsatz und die Nutzung von Systemen der künstlichen Intelligenz in der EU und wurde nach einem risikobasierten Ansatz formuliert. Sie gilt für öffentliche Institutionen und Unternehmen, die im europäischen Raum tätig sind, aber auch für externe Unternehmen, wenn deren KI-Produkte oder -Dienstleistungen auf dem Alten Kontinent eingesetzt werden. Bei Missbrauch oder Nichteinhaltung künstlicher Intelligenzsysteme können sehr hohe Bußgelder verhängt werden, beispielsweise 7 % des weltweiten Jahresumsatzes und bis zu 35 Millionen Euro.

Brasilien hat noch keine eigenen Vorschriften, aber das Ministerium für Wissenschaft, Technologie und Innovation hat am Montag eine Arbeitsgruppe eingerichtet, die sich bis Ende Juli treffen wird, um den Vorschlag eines brasilianischen Plans für künstliche Intelligenz an den Nationalen Rat für Wissenschaft und Technologie zu leiten . Andererseits wurde die Abstimmung im Senat über die Annahme des Gesetzentwurfs (PL) 2.338/2023, der die Entwicklung und Nutzung von KI in Brasilien regelt, auf nächsten Dienstag verschoben. Der Sprecher ist der Senator Eduardo Gomesvon der Liberalen Partei, Bolsonaros PL, die einen Ersatztext zu dem bereits 2023 vom Präsidenten des Senats vorgelegten vorlegte, Rodrigo Pacheco. Gomes sagte, die KI-Regulierung dürfe nicht mit anderen Themen verwechselt werden, etwa dem „Kampf gegen Fake News und politische Polarisierung“.

Dem neuen Text fehlen jedoch Maßnahmen gegen Deepfakes, während der Anwalt Estela Aranha, ein Mitglied des hochrangigen UN-Beratungsrats für künstliche Intelligenz, plädierte dafür, dass der Gesetzentwurf Mechanismen zur Verhinderung dessen vorsieht, was er „algorithmische Diskriminierung“ nannte. „Es gibt zahlreiche statistische und wissenschaftliche Beweise dafür, dass Algorithmen Vorurteile aufweisen, die zu diskriminierenden Ergebnissen führen, selbst wenn dies absichtlich der Fall ist. In der Literatur ist Diskriminierung ein Artefakt des KI-technologischen Prozesses. Dies führt zu rechtswidriger oder unfairer Diskriminierung. Diese Vorurteile können rassische, geschlechtsspezifische und klassenbezogene Vorurteile und Ungleichheiten reproduzieren und verstärken“, erklärte Aranha.

-

PREV Russische Kriegsschiffe, venezolanische Wahlen und die Gefahr einer künstlichen Krise mit Guyana in der Karibik
NEXT Chinas militärisches Potenzial wird das der USA früher als gedacht übertreffen