Wenn wir über die Gefahren künstlicher Intelligenz sprechen, liegt der Schwerpunkt meist auf unbeabsichtigten Nebenwirkungen. Wir befürchten, dass wir versehentlich eine superintelligente KI erstellen und vergessen, sie mit Gewissen zu programmieren. oder dass wir kriminelle Verurteilungsalgorithmen einsetzen werden, die die rassistischen Verzerrungen ihrer Trainingsdaten aufgegriffen haben.
Aber das ist nur die halbe Geschichte.
Was ist mit den Leuten, die aktiv KI für unmoralische, kriminelle oder böswillige Zwecke nutzen wollen? Ist es nicht wahrscheinlicher, dass sie Ärger verursachen - und zwar früher als wir jetzt noch Denken? Die Antwort lautet: Ja, sagen mehr als zwei Dutzend Experten aus Instituten wie dem Future of Humanity Institute, dem Zentrum für das Studium existenzieller Risiken und der gemeinnützigen Organisation OpenAI.
In einem heute veröffentlichten Bericht mit dem Titel "Der böswillige Einsatz künstlicher Intelligenz: Vorhersage, Prävention und Milderung" legen diese Akademiker und Forscher einige der Möglichkeiten dar, mit denen KI in den nächsten fünf Jahren eingesetzt werden könnte und was wir tun können um es zu stoppen. Weil die KI zwar einige ziemlich abscheulichhe neue Angriffe ermöglichen kann, aber der Co-Autor des Artikels, Miles Brundage vom Future of Humanity Institute, The Verge sagt, wir sollten nicht in Panik geraten oder die Hoffnung aufgeben.
Miles Brundage äusserte sich dazu.
"Ich nehme gerne den optimistischen Rahmen, nämlich dass wir mehr können“, Der Punkt hier ist nicht, ein düsteres und finsteres Bild zu zeichnen - es gibt viele Verteidigungsmöglichkeiten, die entwickelt werden können und es gibt viel für uns zu lernen. Ich denke nicht, dass es überhaupt hoffnungslos ist, aber ich sehe dieses als einen Aufruf zum Handeln. "
Der Bericht ist umfangreich, konzentriert sich jedoch auf einige wichtige Möglichkeiten, mit denen man AI Bedrohungen für digitale und physische Sicherheitssysteme zu verschärfen und somit völlig neue Gefahren schaffen wird. Es gibt auch fünf Empfehlungen, wie diese Probleme bekämpft werden können. Dazu gehört auch, KI-Ingenieure dazu zu bringen, den möglichen bösartigen Einsatz ihrer Forschung besser zu verstehen und neue Diskussionen zwischen Politikern und Wissenschaftlern anzuregen, damit Regierungen und Strafverfolgungsbehörden nicht überrumpelt werden.
Beginnen wir jedoch mit der potenziellen Bedrohungen: Eine der wichtigsten ist, dass die KI die Kosten bestimmter Angriffe drastisch senken wird, indem sie es mutmaßlichen Crackern ermöglicht, Aufgaben zu automatisieren, für die zuvor menschliche Arbeit erforderlich war.
Nehmen Sie zum Beispiel Spear-Phishing, bei dem Einzelpersonen Nachrichten geschickt werden, die speziell dafür entwickelt wurden, sie dazu zu bringen, sich mit ihren Sicherheitsdaten irgendwo bei einem ihrer vertrauten Diensten anzumelden. (Denken Sie an eine gefälschte E-Mail von Ihrer Bank oder von einem scheinbar alten Bekannten.) Die KI könnte einen Großteil der Arbeit hier automatisieren, das soziale und berufliche Netzwerk eines Einzelnen analysieren und dann die Nachrichten generieren. Es wird viel Aufwand betrieben, um realistische und ansprechende Chatbots zu erstellen, und die gleiche Arbeit könnte auch dazu genutzt werden, einen Chatbot zu erstellen, der sich als dein bester Freund ausgibt, der aus irgendeinem Grund dein E-Mail-Passwort wirklich wissen möchte.
Diese Art von Angriff klingt kompliziert, aber der Punkt ist, dass, sobald Sie die Software erstellt haben, um alles zu tun, Sie es wieder und wieder ohne zusätzliche Kosten verwenden können. Phishing-E-Mails sind bereits schädlich - sie waren sowohl für das iCloud-Leck von Promi-Bildern im Jahr 2014 verantwortlich, als auch für den Hack privater E-Mails von Hillary Clintons Wahlkampfvorsitzendem John Podesta. Letzteres hatte nicht nur Einfluss auf die US-Präsidentschaftswahlen 2016, es gab auch eine Reihe von Verschwörungstheorien wie Pizzagate, die fast Menschen getötet haben. Denken Sie darüber nach, was ein automatisierter KI-Speerphisher für technisch nicht ausgebildete Regierungsbeamte bedeuten könnte.
Der zweite wichtige Punkt in dem Bericht ist, dass AI den bestehenden Bedrohungen neue Dimensionen hinzufügen wird. Mit dem gleichen Spear-Phishing-Beispiel könnte AI dazu verwendet werden, nicht nur E-Mails und Textnachrichten zu erzeugen, sondern auch gefälschte Audio- und Videodateien. Wir haben bereits gesehen, wie KI dazu verwendet werden kann, die Stimme eines Ziels nachzuahmen, nachdem man nur ein paar Minuten aufgezeichneter Sprache studiert hat, und wie es das Material von Leuten, die zu Puppen sprechen, verändern kann. Der Bericht konzentriert sich auf Bedrohungen, die in den nächsten fünf Jahren aufkommen werden, und diese Probleme werden schnell zu Problemen.
Und natürlich gibt es eine ganze Reihe anderer unappetitlicher Praktiken, die die KI noch verschärfen könnte. Politische Manipulation und Propaganda für einen Anfang (wiederum Bereiche, in denen gefälschte Video- und Audiodaten ein riesiges Problem darstellen könnten), aber auch Überwachung, insbesondere wenn sie dazu verwendet werden, Minderheiten anzusprechen. Das beste Beispiel dafür ist in China zu sehen, wo Gesichtserkennung und Kameras zur Verfolgung von Menschen eine Grenzregion, in der die überwiegend muslimische uigurische Minderheit beheimatet ist, in einen "totalen Überwachungsstaat" verwandelt haben.
Dies sind nur einige Beispiele für die Fähigkeit der KI, eine Bedrohung zu werden. Es ersetzt die Menschen, die die Feeds beobachten, indem es die CCTV-Kamera von passiven in aktive Beobachter verwandelt und es ihnen ermöglicht, menschliches Verhalten automatisch zu kategorisieren.
Miles Brundage,
"Gerade die Skalierbarkeit hat nicht genug Aufmerksamkeit. Es ist nicht nur die Tatsache, dass KI bei bestimmten Aufgaben auf menschlicher Ebene arbeiten kann, sondern dass sie auf eine große Anzahl von Kopien skaliert werden kann."
Abschließend hebt der Bericht die völlig neuen Gefahren hervor, die von der KI ausgehen. Die Autoren skizzieren eine Reihe möglicher Szenarien, darunter eine, bei der Terroristen eine Bombe in einen Reinigungsroboter implantieren und sie in ein Regierungsministerium schmuggeln. Der Roboter nutzt seine eingebaute Bildverarbeitung, um einen bestimmten Politiker aufzuspüren, und wenn er in der Nähe ist, detoniert die Bombe. Dies nutzt neue Produkte, die AI ermöglicht (die Reinigungsroboter), aber auch seine autonomen Funktionen (das Machine-Vision-basierte Tracking).
Szenarien wie diese zu skizzieren, mag ein wenig nach zu viel Fantasie aussehen, aber wir haben wirklich schon die ersten neuen Angriffe gesehen, die von KI ermöglicht werden. Face-Swapping-Technologie wurde verwendet, um so genannte "Deepfakes" zu erstellen - die Gesichter von Prominenten ohne ihre Zustimmung auf pornografische Clips zu kleben. Und obwohl es bis heute keine prominenten Fälle gab, wissen wir, dass diejenigen, die an der Erstellung dieses Inhalts beteiligt sind, diese an Personen austesten möchten, die sie kennen. Schaffung von perfektem Futter für Belästigung und Erpressung.
Diese Beispiele nehmen nur einen Teil des Berichts auf, aber das ganze Dokument lässt Sie sich fragen: Was ist zu tun? Die Lösungen sind einfach zu umreißen, aber es wird schwierig sein, sie zu befolgen. Der Bericht gibt fünf wichtige Empfehlungen:
KI-Forscher sollten anerkennen, wie ihre Arbeit böswillig verwendet werden kann
Politiker müssen von technischen Experten über diese Bedrohungen lernen
Die KI-Welt muss von Cybersicherheitsexperten lernen, wie sie ihre Systeme am besten schützt
Ethische Rahmenbedingungen für KI müssen entwickelt und eingehalten werden
Und mehr Menschen müssen in diese Diskussionen einbezogen werden. Nicht nur KI-Wissenschaftler und politische Entscheidungsträger, sondern auch Ethiker, Unternehmen und die breite Öffentlichkeit
Mit anderen Worten: ein wenig mehr Konversation und etwas mehr Action bitte!
Es ist eine große Frage, was für ein komplexes und nuanciertes Subjekt die künstliche Intelligenz ist, aber es gab vielversprechende Zeichen. Zum Beispiel reagierten Webplattformen mit dem Aufkommen von Deepfakes schnell, verbaten den Inhalt und stoppten seine sofortige Verbreitung. Und die Gesetzgeber in den USA haben bereits damit begonnen, über das Problem zu sprechen - zu zeigen, dass diese Debatten die Regierung erreichen werden, wenn sie dringend genug sind.
Miles Brundage über das Problem,
"Es gibt sicherlich Interesse über die Beteiligung der Regierung an der Diskussion dieser Themen. Aber es gibt immer noch das Gefühl, dass mehr diskutiert werden muss, um herauszufinden, was die kritischsten Bedrohungen sind und welche Lösungen am praktischsten sind. Und in den meisten Fällen, ist es schwierig, überhaupt zu beurteilen, was eine Bedrohung ist. Es ist unklar, wie langsam all dies werden wird - ob es ein großes katastrophales Ereignis geben wird oder ob es ein langsam rollendes Ding sein wird, das uns viele Möglichkeiten zur Anpassung gibt.
Aber genau deshalb stellen wir diese Probleme jetzt an."
Was haltet ihr davon?
Ich persönlich finde die Entwicklung der KI’s sehr Interessant da diese auch viel Positives schaffen können, alleine um das Universum eigenständig durch viele komplexere Berechnungen aufzudecken zu können.
Folgt mir auf Stemmt:
-> https://steemit.com/@it-deen
Letzter Breitrag
„Tausende Infizierte !!! - Neue Monero-Mining-Malware zielt auf Android-Geräte ab!“
-> https://steemit.com/deutsch/@it-deen/tausende-infizierte-neue-monero-mining-malware-zielt-auf-android-geraete-ab
„Britische Regierungs Webseiten nutzen Mining Malware“
-> https://steemit.com/deutsch/@it-deen/britische-regierungs-webseiten-nutzen-mining-malware
„Saudische Zentralbank testet Ripple Zahlungs-Technology“
-> https://steemit.com/deutsch/@it-deen/saudische-zentralbank-testet-ripple-zahlungs-technology
Quelle: https://www.theverge.com/2018/2/20/17032228/ai-artificial-intelligence-threat-report-malicious-uses
Flagged for comment spam, abusive selfvotes, plagiarism and spam in the Discord channel.
Einfach nur den Artikel zu übersetzen, aber ansonsten 1:1 zu posten spricht nicht gerade von eigener Mühe.
Ehrlich gesagt macht mir diese ganze KI Entwicklung Angst.
Wir wissen ja wer Regiert, und das die Herscher alles nur keine positiven Absichten haben. Es Steht ja jetzt schon fest das man solche Technik wieder gegen die Menschen einsetzen wird.
Das steht leider fest.
Congratulations @it-deen! You have completed some achievement on Steemit and have been rewarded with new badge(s) :
Award for the number of upvotes
Award for the number of comments
You got a First Reply
Award for the number of upvotes received
You published 4 posts in one day
Click on any badge to view your own Board of Honor on SteemitBoard.
For more information about SteemitBoard, click here
If you no longer want to receive notifications, reply to this comment with the word
STOP
Hey,
sehr spannender Artikel. Da konnte ich wieder einmal was neues zum Thema AI erfahren. Persönlich finde es echt faszinierend aber auch erschreckend wie weit wir bereits sind. Alleine cognitive-services sind schon echt weit entwickelt.
Wenn ich solche Artikel lese, wo eine KI eine KI entwickelt oder eine KI etwas entwickelt was wir selbst nicht mehr verstehen:
https://t3n.de/news/ki-ai-software-787665/
https://motherboard.vice.com/de/article/8q8wkv/google-ki-entwickelt-verschluesselung-die-selbst-google-nicht-versteht
Dann denke ich immer: So entsteht SkyNet :D...
Aber Genuss kann so eine KI noch nicht empfinden :) .. Dementsprechend
Cheers!!
Ja das mit der von der KI entwickelten Verschlüsselung habe ich mitbekommen und ja es ist sehr beunruhigend...
Bin mir sogar sicher das wenn es mal dazu kommt das eine KI Übermächtig wird das wir von einer anderen KI gerettet werden :D
KI-Fight :D :D .... da bin ich mir net so sicher ... ist ja net allzuviel da was "Rettenswert" ist :D ... und wenn da eine KI anfängt abzuwägen siehts schlecht für uns aus....
Cheers!
Exemplarisch verdeutlicht, wie es uns um die Ohren fliegen wird (danke exponentielles Wachstum).
Quelle