Algorithmen für maschinelles Lernen sollen das Leben erleichtern und Systeme verbessern, können jedoch mit schlechten Konsequenzen einhergehen.

Was sind maschinelle Lernalgorithmen? So funktionieren sie

Werbung Künstliche Intelligenz und maschinelles Lernen bringen viele der Fortschritte hervor, die wir heute in der Technologiebranche sehen. Aber wie bekommen Maschinen die Fähigkeit zu lernen? Wie führt die Art und Weise, wie wir dies tun, zu unbeabsichtigten Konsequenzen? Hier finden Sie eine kurze Erläuterung der Funktionsweise von Algorithmen für maschinelles Lernen sowie einige Beispiele für fehlerhaftes maschinelles Lernen. Was

Werbung

Künstliche Intelligenz und maschinelles Lernen bringen viele der Fortschritte hervor, die wir heute in der Technologiebranche sehen. Aber wie bekommen Maschinen die Fähigkeit zu lernen? Wie führt die Art und Weise, wie wir dies tun, zu unbeabsichtigten Konsequenzen?

Hier finden Sie eine kurze Erläuterung der Funktionsweise von Algorithmen für maschinelles Lernen sowie einige Beispiele für fehlerhaftes maschinelles Lernen.

Was sind maschinelle Lernalgorithmen?

Maschinelles Lernen ist ein Zweig der Informatik, der sich darauf konzentriert, KI die Fähigkeit zu geben, Aufgaben zu erlernen. 5 Beste Google-KI-Experimente zur Erforschung der künstlichen Intelligenz 5 Beste Google-KI-Experimente zur Erforschung der künstlichen Intelligenz Google hat mehrere KI-Experimente, mit denen Sie spielen können jetzt. Dank maschinellem Lernen können sie mit Ihrer Hilfe die Welt von morgen verändern. Weiterlesen . Dies schließt die Entwicklung von Fähigkeiten ein, ohne dass Programmierer AI explizit dafür codieren. Stattdessen kann die KI Daten verwenden, um sich selbst zu unterrichten.

Programmierer erreichen dies durch maschinelle Lernalgorithmen. Diese Algorithmen sind die Modelle, auf denen ein AI-Lernverhalten basiert. Algorithmen ermöglichen in Verbindung mit Trainingsdatensätzen das Lernen von KI.

Ein Algorithmus liefert normalerweise ein Modell, mit dem eine KI ein Problem lösen kann. Zum Beispiel lernen, wie man Bilder von Katzen gegen Hunde identifiziert. Die KI wendet das vom Algorithmus festgelegte Modell auf einen Datensatz an, der Bilder von Katzen und Hunden enthält. Mit der Zeit wird die KI lernen, wie Katzen von Hunden ohne menschliche Eingaben genauer und einfacher identifiziert werden können.

Durch maschinelles Lernen werden Technologien wie Suchmaschinen, Smart-Home-Geräte, Onlinedienste und autonome Maschinen verbessert. So weiß Netflix, welche Filme Ihnen am ehesten gefallen und wie Musik-Streaming-Dienste Wiedergabelisten empfehlen können.

Aber während maschinelles Lernen unser Leben erheblich erleichtern kann, kann es auch einige unerwartete Konsequenzen geben.

7 Mal, wenn maschinelles Lernen falsch lief

1. Google Image Search Result Pannen

Google-Image-Suchergebnisse-Kontroversen

Die Google-Suche hat das Navigieren im Web erheblich vereinfacht. Der Algorithmus der Engine berücksichtigt beim Hochfahren von Ergebnissen eine Reihe von Faktoren, z. B. Keywords und Absprungrate. Der Algorithmus lernt jedoch auch aus dem Benutzerverkehr, was zu Problemen bei der Qualität der Suchergebnisse führen kann.

Nirgendwo ist dies deutlicher als in den Bildergebnissen. Da auf Seiten mit hohem Datenaufkommen die Wahrscheinlichkeit größer ist, dass Bilder angezeigt werden, werden Geschichten, die eine hohe Anzahl von Benutzern anziehen, einschließlich Clickbait, häufig priorisiert.

So sorgten beispielsweise die Bildsuchergebnisse für „Squatter Camps in South Africa“ für Kontroversen, als festgestellt wurde, dass es sich überwiegend um weiße Südafrikaner handelte. Dies trotz Statistiken, aus denen hervorgeht, dass die überwiegende Mehrheit der Menschen, die in informellen Wohnungen wie Hütten leben, schwarze Südafrikaner sind.

Die im Google-Algorithmus verwendeten Faktoren bedeuten auch, dass Internetnutzer die Ergebnisse manipulieren können. Beispielsweise hat eine Kampagne von Nutzern die Ergebnisse der Google-Bildsuche dahingehend beeinflusst, dass bei der Suche nach dem Begriff „Idiot“ Bilder von US-Präsident Donald Trump angezeigt werden.

2. Aus Microsoft Bot wurde ein Nazi

Vertrauen Sie Twitter, um einen gut gemeinten Chatbot mit maschinellem Lernen zu beschädigen. Dies geschah innerhalb des Tages nach der Veröffentlichung von Microsofts berüchtigtem Chatbot Tay.

Tay ahmte die Sprachmuster eines Mädchens im Teenageralter nach und lernte durch ihre Interaktionen von anderen Twitter-Nutzern. Sie wurde jedoch zu einer der berüchtigtsten KI-Fehltritte, als sie anfing, Nazi-Aussagen und rassistische Beleidigungen zu teilen. Es stellte sich heraus, dass Trolle das maschinelle Lernen der KI gegen sie benutzt hatten und es mit Interaktionen überfluteten, die mit Bigotterie beladen waren.

Nicht lange danach hat Microsoft Tay endgültig offline geschaltet.

3. AI Gesichtserkennungsprobleme

Gesichtserkennung KI macht häufig aus den falschen Gründen Schlagzeilen, z. B. über Gesichtserkennung und Datenschutzbedenken. Diese KI verursachte jedoch auch große Bedenken, als sie versuchte, farbige Menschen zu erkennen.

Im Jahr 2015 stellten Nutzer fest, dass in Google Fotos einige Schwarze als Gorillas eingestuft wurden. Im Jahr 2018 ergaben Untersuchungen der ACLU, dass die Gesichtserkennungssoftware von Amazon Rekognition 28 Mitglieder des US-Kongresses als Verdächtige der Polizei identifizierte.

Ein weiterer Vorfall betraf Apples Face ID-Software. Sie haben ein iPhone X gekauft? Die Gesichtserkennung könnte Sie dazu bringen, den Kauf eines iPhone X zu überdenken? Die Gesichtserkennung könnte Sie erneut überdenken lassen Die bemerkenswerteste Funktion des iPhone X ist das Entsperrsystem für die Gesichtserkennung. Aber wie sicher ist es? Wird Apple Zugriff auf eine riesige Datenbank mit allen Gesichtern haben? Lesen Sie weiter, wie Sie zwei verschiedene chinesische Frauen fälschlicherweise als dieselbe Person identifizieren. Infolgedessen konnte der Kollege des iPhone X-Besitzers das Telefon entsperren.

Währenddessen erinnert sich die MIT-Forscherin Joy Buolamwini, dass sie bei der Arbeit an der Gesichtserkennungstechnologie häufig eine weiße Maske tragen muss, damit die Software sie erkennt. Um solche Probleme zu lösen, machen Buolamwini und andere IT-Experten auf das Problem und die Notwendigkeit integrativerer Datensätze für AI-Schulungen aufmerksam.

4. Deepfakes für Hoaxes

Während die Leute Photoshop schon lange zum Erstellen von Scherzbildern verwendet haben, bringt maschinelles Lernen dies auf ein neues Niveau. Mit Software wie FaceApp können Sie Motive von einem Video in ein anderes tauschen.

Aber viele Leute nutzen die Software für eine Vielzahl von böswilligen Verwendungszwecken, einschließlich der Überlagerung von Prominentengesichtern in Erwachsenenvideos oder der Erstellung von Scherzvideos. In der Zwischenzeit haben Internetnutzer dazu beigetragen, die Technologie zu verbessern, damit es immer schwieriger wird, echte Videos von gefälschten zu unterscheiden. Infolgedessen ist diese Art von KI sehr mächtig, wenn es darum geht, gefälschte Nachrichten und Falschmeldungen zu verbreiten. Facebook bietet Tipps zum Erkennen gefälschter Nachrichten. Facebook bietet Tipps zum Erkennen gefälschter Nachrichten. Facebook produziert zwar keine gefälschten Nachrichten, aber zumindest Mitverantwortlich für die Verbreitung. Aus diesem Grund bietet es jetzt Tipps, mit denen Sie gefälschte Nachrichten erkennen können, bevor sie sich verbreiten. Weiterlesen .

Um die Leistungsfähigkeit der Technologie zu demonstrieren, haben der Regisseur Jordan Peele und der CEO von BuzzFeed, Jonah Peretti, ein Deepfake-Video erstellt, in dem der ehemalige US-Präsident Barack Obama einen PSA über die Leistungsfähigkeit von Deepfakes zu liefern scheint.

5. Der Aufstieg der Twitter-Bots

Twitter-Bots wurden ursprünglich erstellt, um beispielsweise Kundendienstantworten für Marken zu automatisieren. Aber die Technologie ist jetzt ein wichtiger Grund zur Sorge. Tatsächlich haben Untersuchungen ergeben, dass es sich bei bis zu 48 Millionen Nutzern auf Twitter tatsächlich um KI-Bots handelt.

Anstatt einfach Algorithmen zu verwenden, um bestimmten Hashtags zu folgen oder auf Kundenanfragen zu antworten, versuchen viele Bot-Accounts, echte Menschen zu imitieren. Diese "Leute" fördern dann Scherze und tragen dazu bei, dass gefälschte Nachrichten viral werden.

Eine Welle von Twitter-Bots hat sogar die öffentliche Meinung in gewissem Maße zum Brexit und den US-Präsidentschaftswahlen 2016 beeinflusst. Twitter selbst gab zu, dass es rund 50.000 in Russland hergestellte Bots aufgedeckt hat, die über die Wahlen gepostet haben.

Bots plagen den Dienst weiterhin und verbreiten Desinformation. Das Problem ist so weit verbreitet, dass es sich sogar auf die Unternehmensbewertung auswirkt.

6. Mitarbeiter sagen, dass Amazon AI entschieden hat, Männer einzustellen, ist besser

Im Oktober 2018 berichtete Reuters, dass Amazon ein Job-Recruitment-Tool ausrangieren musste, nachdem die AI der Software entschieden hatte, dass männliche Kandidaten bevorzugt würden.

Mitarbeiter, die anonym bleiben wollten, meldeten sich bei Reuters, um über ihre Arbeit an dem Projekt zu berichten. Die Entwickler wollten, dass die KI anhand ihrer Lebensläufe die besten Kandidaten für einen Job ermittelt. Die Projektbeteiligten bemerkten jedoch bald, dass die KI weibliche Kandidaten bestrafte. Sie erklärten, dass die KI Lebensläufe aus dem letzten Jahrzehnt, von denen die meisten von Männern stammten, als Trainingsdatensatz verwendete.

Infolgedessen fing die KI an, Lebensläufe basierend auf dem Schlüsselwort „Frauen“ herauszufiltern. Das Schlüsselwort wurde im Lebenslauf unter Aktivitäten wie „Kapitänin des Frauenschachclubs“ veröffentlicht. Während die Entwickler die KI änderten, um diese Bestrafung der Lebensläufe von Frauen zu verhindern, verschrottete Amazon das Projekt schließlich.

7. Unangemessener Inhalt auf YouTube Kids

YouTube Kids hat viele alberne, skurrile Videos, die dazu gedacht sind, Kinder zu unterhalten. Es gibt aber auch ein Problem mit Spam-Videos, die den Algorithmus der Plattform manipulieren.

Diese Videos basieren auf beliebten Tags. Da kleine Kinder nicht sehr anspruchsvolle Zuschauer sind, ziehen Junk-Videos, die diese Keywords verwenden, Millionen von Besuchern an. Einige dieser Videos werden von AI automatisch mithilfe von Lageranimationselementen basierend auf Trend-Tags generiert. Auch wenn die Videos von Trickfilmzeichnern erstellt wurden, werden ihre Titel speziell für das Keyword-Füllen generiert.

Diese Keywords helfen dabei, den YouTube-Algorithmus so zu manipulieren, dass daraus Empfehlungen resultieren. Mit der YouTube Kids-App wurde eine erhebliche Menge an unangemessenen Inhalten in den Feeds von Kindern angezeigt. Dies beinhaltete Inhalte, die Gewalt, Jumpscares und sexuelle Inhalte darstellen.

Warum maschinelles Lernen falsch läuft

Es gibt zwei Hauptgründe, warum maschinelles Lernen zu unbeabsichtigten Konsequenzen führt: Daten und Personen. In Bezug auf Daten gilt das Mantra „Junk-In, Junk-Out“. Wenn die Daten, die einer KI zugeführt werden, begrenzt, voreingenommen oder von geringer Qualität sind; Das Ergebnis ist eine KI mit begrenztem Umfang oder Vorurteil.

Aber selbst wenn Programmierer die Daten richtig machen, können die Leute einen Schraubenschlüssel in die Werke werfen. Softwarehersteller wissen oft nicht, wie Menschen die Technologie böswillig oder für egoistische Zwecke einsetzen. Deepfakes kamen von der Technologie, mit der Spezialeffekte im Kino verbessert wurden.

Was darauf abzielt, immersivere Unterhaltung zu bieten, ruiniert letztendlich auch das Leben der Menschen, wenn es ausgenutzt wird.

Es gibt Leute, die daran arbeiten, die Sicherheitsvorkehrungen in Bezug auf die Technologie des maschinellen Lernens zu verbessern, um eine böswillige Verwendung zu verhindern. Aber die Technologie ist schon da. Inzwischen zeigen viele Unternehmen nicht die nötige Willenskraft, um Missbrauch dieser Entwicklungen zu verhindern.

Algorithmen für maschinelles Lernen können uns helfen

Es mag ein bisschen düster erscheinen, wenn man merkt, wie viel maschinelles Lernen und künstliche Intelligenz hinter den Erwartungen zurückbleibt. Es hilft uns aber auch in vielerlei Hinsicht - nicht nur in Bezug auf die Bequemlichkeit, sondern auch in Bezug auf die Verbesserung unseres Lebens im Allgemeinen.

Wenn Sie etwas zögern, was die positiven Auswirkungen von KI und maschinellem Lernen angeht, finden Sie heraus, wie künstliche Intelligenz moderne Hacker und Internetkriminalität bekämpft. Wie künstliche Intelligenz moderne Hacker und Internetkriminalität bekämpft Mangel- und Cyberkriminalitätsepidemie, wie können Unternehmen Hacker bekämpfen? Mit künstlicher Intelligenz! Lesen Sie mehr und Hacker, um etwas Hoffnung wiederherzustellen.