Wer kontrolliert die Daten, die wir nicht weitergeben, die aber genutzt werden und uns betreffen?

-

Der Fall ist in der Internetforschung wohlbekannt, aber nicht weniger anschaulich. Im Jahr 2003 rief ein Mann in einem Supermarkt in Minnesota, USA, an und war sehr verärgert, weil seine Tochter im Teenageralter Glückwünsche zu ihrer Schwangerschaft und Werbung für ihr Baby erhalten hatte. Nach Erhalt der Beschwerde rief der Manager am nächsten Tag den verärgerten Vater an, um sich für den „Fehler“ seiner Marketingabteilung zu entschuldigen und erhielt eine lakonische Antwort: Eigentlich sei er derjenige, der sich entschuldigen sollte, weil seine Tochter tatsächlich schwanger sei. , aber er hatte es niemandem in seiner Familie mitgeteilt. Das Einkaufsalgorithmussystem des Ladens hatte anhand ihres Alters, ihres Standorts, ihrer Kaufhistorie und ihrer Suchpräferenzen korrekt geschlussfolgert, dass die Teenagerin tatsächlich ein Kind erwartete, und sogar, in welchem ​​Trimester sie sich befand und welches voraussichtliche Geburtsdatum sie hatte.

Ein anderer Fall, bereits in Argentinien, war weniger anekdotisch und besorgniserregender. Im Jahr 2018 kündigte die Regierung von Salta den Einsatz einer Microsoft-Anwendung zur Verhinderung von Teenagerschwangerschaften an, die versprach, fünf oder sechs Jahre zuvor abzuleiten, bei welchen Teenagern (mit Vornamen, Nachnamen und Wohnort) ein höheres Risiko für Frühschwangerschaften besteht oder nicht. Eine Analyse des Labors für Angewandte Künstliche Intelligenz des UBA zeigte erhebliche Voreingenommenheit und Willkür der Anwendung in einem sensiblen Bereich für eine gefährdete Bevölkerungsgruppe.

Diese beiden Fälle waren neben vielen anderen Teil der Präsentation der Vía Libre-Stiftung am vergangenen Dienstag, die sich für mehr Transparenz und Bürgerverantwortung bei der Nutzung von Daten einsetzt und den Titel „Was siehst du, wenn du mich siehst?“ trug. Konstruktion personenbezogener Daten ohne unsere Zustimmung oder unser Wissen“, auf dem jüngsten Festival für Innovation und Sozialtechnologie (FITS), das in Buenos Aires stattfand.

Der Vortrag konzentrierte sich insbesondere auf diesen Typ abgeleitete Daten, d. h. „Daten, die nicht von ihrem Eigentümer bereitgestellt oder übertragen werden, sondern vom Datenverantwortlichen oder von Dritten erstellt wurden, häufig sogar ohne Wissen des Datenverantwortlichen, die sich aber weiterhin auf eine Einzelperson beziehen.“ identifiziert oder identifizierbar sind und als Grundlage für Entscheidungen dienen, die unmittelbare Auswirkungen darauf haben“, betont die Stiftung.

Margarita Trovato, auf Menschenrechte spezialisierte Anwältin und Mitglied der Stiftung Vía Libre.

Im Rahmen des Aufstiegs von Big Data und Modellen der künstlichen Intelligenz Diese Daten spielen mittlerweile eine grundlegende Rolle in einer Wirtschaft, deren wichtigster Input Informationen über Menschen sind und die zur Verhaltensvorhersage verwendet werden (z. B. um gezielt Werbung zu schalten, Wahlkampagnen zu segmentieren oder potenzielles Verhalten wie Steuerhinterziehung vorherzusehen). Und um wichtige Entscheidungen zu treffen, oft mit rechtlichen Auswirkungen auf Menschen. In diesem Zusammenhang sprach Debates mit Margarita Trovato, einer der Autorinnen des Berichts, über dieses Problem.

Frage: Wie funktioniert die Generierung von Daten aus den von uns bereitgestellten Daten?

Antwort: Wir stellen ständig Daten zur Verfügung, auch wenn wir uns dessen manchmal bewusst sind und manchmal auch nicht, und diese Daten werden später zwangsläufig dazu verwendet, Entscheidungen über uns zu treffen. Seit der Gründung im letzten Jahr haben wir einen speziellen Bericht über abgeleitete Daten erstellt, wie sie technisch gesehen heißen. Was zählt, ist zu wissen, was auf der Grundlage dieser Daten über uns aufgebaut wird, welche Spuren wir hinterlassen. Es handelt sich um Daten, die aus anderen erstellt wurden. Wenn ich zum Beispiel einen Kauf tätige und meine Kreditkarte durchziehe, gebe ich Auskunft darüber, wo ich mich zu einem bestimmten Zeitpunkt befinde, genauso, wenn ich den Standort einer Handy-App aktiviere. Oder wenn ich in einem sozialen Netzwerk etwas „gefällt“, gebe ich Auskunft über meine Interessen.

F: Nicht immer freiwillig.

A: Es gibt persönliche Daten, die ich mehr oder weniger bewusst preisgebe: Wenn ich mich an einem Ort registriere und zum Beispiel meine E-Mail-Adresse gebe, bestätige ich, dass dort meine Einwilligung zur Nutzung vorliegt. Aber daraus werden andere Dinge über mich aufgebaut, nämlich die abgeleiteten Daten: Wenn wir meinen Kreditkartenverbrauch, meine akademische Situation an einer Universität, meine Beschäftigungssituation, meine Situation beim AFIP, meinen Supermarktkonsum in der letzten Woche, meine … kombinieren B. den Standort anhand von Handy-Apps, welche Dinge ich auf Facebook oder Twitter mag oder welche Einkäufe ich online tätige, lassen sich daraus neue Daten über mich ableiten. Der Prozess ist ein Induktionsprozess, bei dem davon ausgegangen wird, dass ich, da ich A, B und C mache, mit Sicherheit einem bestimmten Profil entspreche, einer bestimmten sozialen Klasse angehöre, eine bestimmte politische Präferenz habe oder daran interessiert bin, etwas zu konsumieren Produkt. Dann kann es sein, dass ich beispielsweise auf bestimmte Werbe- oder Affiliate-Vorschläge verwiesen werde.

F: Die Frage ist, wer den Prozess kontrolliert, oder?

A: Wir legen großen Wert darauf, zu untersuchen, wie diese Daten erzeugt werden, wie sie ausgetauscht werden, wer sie zusammenstellt und wer sie im Kontext von Big Data (massive Datenverarbeitung) verarbeitet. Wir wissen, dass die Wirtschaft heute auf der Bewegung und Analyse von Daten basiert, und wir legen großen Wert darauf, zu warnen, wofür diese Daten verwendet werden. Denn da ich nicht weiß, was auf mich aufgebaut wird, weiß ich auch nicht, welche Entscheidungen sie treffen. Ich weiß nicht, ob die Bank mir beispielsweise eine Karte anbietet oder nicht, weil sie davon ausgeht, dass ich zu einer Gruppenliste, einem Profil, einem Kredit, einem Zuschuss usw. gehöre.

F: Gibt es eine Lücke?

A: Diese abgeleiteten Daten sind heute nicht in der Gesetzgebung enthalten, unsere Gesetze betrachten sie nicht als personenbezogene Daten. Obwohl sie sich auf Menschen beziehen, also in diesem Sinne persönlich sind, genießen sie keinen großen Schutz. Ich habe keine Möglichkeit zu wissen, ob ein Unternehmen oder der Staat diese Daten über mich sammelt. Es ist für sie unmöglich, sie zu überprüfen, und für mich ist es unmöglich zu wissen, dass sie sie haben. Ich kann also nicht kontrollieren, welche Entscheidungen über mich getroffen werden und worauf sie basieren. Warum werde ich einer Kategorie zugeordnet oder nicht? In anderen Ländern ermöglicht Ihnen ein bestimmter Punktestand beispielsweise den Zugang zu einer Universität, der über Ihre Arbeit oder berufliche Zukunft entscheiden kann.

F: Wird dies durch den Aufstieg der generativen künstlichen Intelligenz verbessert?

A: Und ja, denn wir geben immer mehr Daten weiter. Tatsächlich gibt es eine neue Modalität des GPT-Chats, die bereits implementiert wurde oder kurz vor der Implementierung steht und die es ihm ermöglicht, ein Gedächtnis zu haben: Die Maschine lernt über meine eigenen Fragen, ermöglicht es ihr, mich ein wenig besser kennenzulernen und versteht, was ich ihm sagen werde. Genau darum geht es: Basierend auf Dingen, die ich nicht ausdrücklich sage, meinem Konsum, meinen Interessen, meinen Bewegungsmustern, meinen Zeitplänen, den Gruppen, mit denen ich spreche, können sie mein Verhalten ableiten, und deshalb liegt der Schwerpunkt darauf, wie das ist Daten verwendet werden. Nehmen wir an, dass sie auf mehr oder weniger seriöse Weise produziert werden, was eine andere Diskussion ist, aber ist es richtig, dass sie zur Steuerung von Werbung oder zur Festlegung öffentlicher Richtlinien verwendet werden? wenn ich sie nie ausdrücklich zur Verfügung gestellt habe.

F: Welche Gesetzesreform sollte Ihrer Meinung nach durchgeführt werden?

A: Heutzutage betrachtet das Gesetz diese Daten nicht als personenbezogene Daten im engeren Sinne und daher haben wir nicht die gleichen Rechte wie an meinen personenbezogenen Daten, die das Gesetz anerkennt, das heißt: Zugang zu ihnen, um zu erfahren, worum es in ihnen geht mich zu bitten, dass sie korrigiert werden, dass sie irgendwann entfernt werden. In diesem Fall sind wir Bürger durch das Gesetz viel schutzloser. Eine Reform des Gesetzes 25.326 ist in vielen Bereichen dringend erforderlich, aber in diesem speziellen Fall soll diese Schlussfolgerungen geschützt werden, sodass sie auch als das betrachtet werden, was sie sind: personenbezogene Daten, für die eine Reihe von Schutzmaßnahmen erforderlich sind.

F: Wie läuft die Diskussion im Kongress heute?

A: Das Gesetz wurde um mehrere Jahre verzögert und es gibt keine Anzeichen dafür, dass es bald diskutiert wird. Der letzte Brief wurde letztes Jahr gegen Mitte des Jahres von der Exekutive verschickt. Wenn ich mich nicht irre, ging er an drei Ausschüsse und blieb dort. Es hat immer noch parlamentarischen Status, aber nichts deutet darauf hin, dass im Kongress der politische Wille besteht, sich der Behandlung zu widmen.

F: Und was könnten wir als Verbraucher dieser Dienste tun?

A: Wir versuchen immer, die Idee einer kritischen Staatsbürgerschaft zu vermitteln. Wir sind von diesen Technologien umgeben. Wir müssen uns darüber im Klaren sein, dass wir Daten übermitteln, die mit anderen kombiniert werden können und die spätere Entscheidungen über uns beeinflussen können. Nicht um die Nutzung von Diensten oder Anwendungen einzustellen, sondern um sich bewusst zu sein, dass es einen Markt gibt, den manche Autoren Überwachung nennen, in den wir eingebunden sind, und große Technologieunternehmen heute vom Austausch und Verkauf von Daten leben, nicht wahr? Wir müssen verstehen, dass diese Daten, die über uns produziert werden und von denen wir viele nicht einmal erfahren werden, sicherlich die Grundlage für Entscheidungen sein werden, die uns im täglichen Leben betreffen. Es ist kein technisches Problem Ingenieursblase, die sich der Entwicklung von Algorithmen widmet.

F: Ich habe an die Kontroverse gedacht, die kürzlich auch mit Worldcoin stattfand, dem Unternehmen, das die Iris scannt und mit dem Zugang zu einer virtuellen Währung belohnt wird

A: Bei den biometrischen Daten handelt es sich um eine andere Ebene, da es sich bei biometrischen Daten um die intimsten Daten handelt, die wir haben, und die auch im Laufe der Zeit unveränderlich sind. Es gibt keine Möglichkeit, Ihre Iris zu ändern. Ich kann nicht sagen: „Oh, sie haben mich gehackt, ich habe meine Iris geändert.“ Es handelt sich um eine unmittelbare Gefahr, und es ist auffällig, dass kein größeres Bewusstsein für die Verletzung der Privatsphäre und anderer Rechte besteht. Wenn es schwierig ist, die Ernsthaftigkeit dieser Aussage zu verstehen, umso mehr, wenn man abgeleitete Daten wie die, über die wir jetzt nachdenken, als eine weitere Abstraktionsebene betrachtet. Es fehlt viel Bewusstsein. In anderen Ländern gibt es beispielsweise die sogenannte Erklärbarkeit des Algorithmus: Wer auch immer diese Daten erstellt, sollte nicht in der Lage sein, etwas zu erstellen, das nicht erklären kann, wie er es gemacht hat. Sie sollten mich nicht als Wähler der X-Partei einstufen, wenn Sie nicht erklären können, warum Sie das getan haben. Sie sind wie kleine Kontrollen und Gegenmaßnahmen, die eingeführt werden könnten: mehr Anforderungen an diejenigen, die sie produzieren, und mehr Anforderungen, die natürlich gleichzeitig mit Rechenschaftspflicht und effektiver Kontrolle für diejenigen einhergehen, die sie nutzen.

<span>Entsprach den Kriterien der <br /><strong>Journalism Trust Initiative</strong></span>“/> </div> </p></div> <div class=

Mehr als ein Jahrhundert lang unserer Gemeinschaft verpflichtet. Ich habe die besten Informationen, Analysen und Unterhaltung ausgewählt, von Patagonien bis zum ganzen Land.

Ich möchte mein Abonnement


#Argentina

-

PREV Familie wird Opfer gewaltsamer Ausschreitungen in La Cisterna: Kriminelle zerstörten ihr Haus | National
NEXT wie es sich auf die Dienstleistungen in Entre Ríos auswirkt