Wenn Ihr Teamkollege eine Maschine ist: 8 Fragen, die CISOs zum Thema KI stellen sollten

Nachricht

HeimHeim / Nachricht / Wenn Ihr Teamkollege eine Maschine ist: 8 Fragen, die CISOs zum Thema KI stellen sollten

Jul 07, 2023

Wenn Ihr Teamkollege eine Maschine ist: 8 Fragen, die CISOs zum Thema KI stellen sollten

Die Unvermeidlichkeit der KI zwingt viele Cybersicherheitsverantwortliche dazu, sich zu entscheiden, ob sie Freund oder Feind ist. Es mag die ultimative Lösung sein, es wie einen Teamkollegen zu behandeln, aber es gibt eine Reihe gezielter Fragen an CISOs

Die Unvermeidlichkeit der KI zwingt viele Cybersicherheitsverantwortliche dazu, sich zu entscheiden, ob sie Freund oder Feind ist. Es mag die ultimative Lösung sein, es wie einen Teamkollegen zu behandeln, aber es gibt eine Reihe gezielter Fragen, die CISOs stellen sollten.

Künstliche Intelligenz verändert die Art und Weise, wie wir fast alles tun – überall, wo wir hingehen, führen Maschinen Aufgaben aus, die früher ein Mensch erledigt hätte. Diese KI-gestützten Instanzen reichen von autonomen Fahrzeugen bis hin zu Kundendienst-Bots, die navigiert werden müssen, bevor ein Mensch ans Telefon geht. In der Cybersicherheit ist KI schnell sowohl zum Freund als auch zum Kraftmultiplikator für Gegner geworden. Ob es Ihnen gefällt oder nicht, die Maschine als Teamkollege zu sehen, ist zu einer Realität geworden, mit der sich CISOs abfinden müssen, aber sie sollten eine Reihe von Fragen stellen, bevor sie sich auf einen KI-Sidekick einlassen.

Das Konzept ist nicht neu. Im Jahr 2019 erstellte ein internationales Team aus 65 kooperierenden Wissenschaftlern 819 Forschungsfragen zu diesem Thema mit der Absicht, „eine Forschungsagenda bereitzustellen, die Kollaborationsforscher nutzen können, um die erwarteten Auswirkungen entworfener Maschinen-Teamkollegen auf der Grundlage der qualifizierten Meinungen von Kollaborationsforschern zu untersuchen.“ Zweifellos haben einige der Forschungspunkte, die aus dem Team kollaborativer Wissenschaftler hervorgegangen sind, Eingang in die Grundsätze und Leitlinien des US-Verteidigungsministeriums für verantwortliche KI gefunden, in denen fünf Datenpunkte erfasst sind, die jede KI erfüllen muss, bevor sie für den Einsatz akzeptabel ist: verantwortungsvoll, gerecht, nachvollziehbar, zuverlässig und kontrollierbar.

Um sich das Konzept der KI als Teamkollege in Aktion vorzustellen, muss man sich nur den Plan der US-Luftwaffe ansehen, die Effektivität ihres F-35-Mehrzweckkampfflugzeugs durch die Kombination mit Kampfdrohnen zu steigern, die als autonome Flügelmänner fungieren. Mithilfe von Drohnen, die mit KI ausgestattet sind, können die Flugzeuge Informationen mit Geschwindigkeiten sammeln, die über die menschlichen Fähigkeiten hinausgehen. Dadurch wird „die Bewegung durch die OODA-Schleife (Observation, Orient, Decision, Act) mit Geschwindigkeit und Agilität ermöglicht, was wiederum dazu führt, dass der Empfänger von Echtzeitinformationen geschickter agiert“, so JR Seeger, ein pensionierter CIA-Offizier und Romanautor .

KI wird praktisch zu einer Erweiterung von Automatisierungsprozessen und kann eine enorm erweiterte Breite und Bandbreite an Informationen aufdecken und dabei helfen, Komplexitäten immer schneller zu bewerten, sagt Anurag Gurtu, CEO von StrikeReady. „KI funktioniert am besten, wenn der CISO seine Produktivität steigern, die Fähigkeiten eines erfahrenen Analysten erweitern, einen Teil der Arbeitslast entlasten und Mitarbeiter halten möchte“, sagt Gurtu.

Auch wenn es sich oft anfühlt, als ob wir mit dem Fuß auf dem „Pedal und ohne Bremsen“ stehen, sagt Gurtu, „hilft die KI auch bei der Fähigkeit, Prozesse mit hoher Geschwindigkeit auszuführen, verbessert die Erkennungsaufgabe und kann so abgestimmt werden, dass sie das ermöglicht.“ Analyst mit einer Ereigniswahrscheinlichkeit, gezielt angegriffen oder angegriffen zu werden.“

In der Vergangenheit machten Entscheidungsbäume und regelbasierte Modelle die Erkennung von Bedrohungen und Schwachstellen zu einem ziemlich mühsamen Prozess, aber „mit KI können wir unterschiedliche Datensätze einbringen und die ‚Erklärbarkeit‘ des Analysten verbessern“, sagt Gurtu und fügt hinzu, dass das lokal interpretierbare Modell- Agnostische Erklärungen (LIME) und SHAP (Shapley Additive ExPlanations) helfen beide bei der Erklärbarkeitsaufgabe.

„Immer mehr Entitäten integrieren generative KI und müssen auf einen Anstieg der ‚Halluzinationen‘ vorbereitet sein. Je mehr dies geschieht, desto mehr kommt es zu massiven Halluzinationen“, sagt Gurtu. Das Mittel, um Halluzinationen in den Ergebnissen generativer KI zu vermeiden, sei die Verwendung eines grafischen KI-Sprachmodells, sagt er.

Um dies zu veranschaulichen, muss man sich nur einen aktuellen Anwaltsbrief ansehen, der einem Gericht vorgelegt wurde und mit Hilfe eines KI-Chatbots verfasst wurde, der nicht existierende Rechtsprechung „halluzinierte“, obwohl er keine Beispiele aus der Praxis finden konnte. Dies führte dazu, dass der Richter die ständige Anordnung erließ, dass alle mithilfe von KI erstellten Schriftsätze von einem Menschen identifiziert und überprüft werden müssen. „Durch die Verwendung der Graph-Methodik gibt die KI dem Benutzer die Möglichkeit, den Kontext zu verstehen“, sagt Gurtu. „Ohne solche, wie bereits erwähnt, kommt es zu massiven Halluzinationen.“

Praktisch alle Sektoren werden irgendwann von KI betroffen sein und eine Maschine als Teamkollegen haben. In einem im August 2022 veröffentlichten Artikel von Frontiers in Psychology stellten die Autoren fest, dass für den Erfolg in menschlichen Teams eine effektive Teamarbeit vorhanden sein muss. „Faktoren wie Führung, Konfliktlösung, Anpassungsfähigkeit und Ersatzverhalten sowie viele andere wurden als entscheidende Aspekte der Teamarbeit identifiziert, die die Teamergebnisse unterstützen.“

Die Autoren extrahierten dies, um zukünftige Mensch-Maschine-Teams anzusprechen, und sagten, dass dies „zum Teil von Maschinenagenten abhängen wird, die so konzipiert sind, dass sie die Teamarbeit mit menschlichen Teamkollegen erfolgreich erleichtern und daran teilnehmen“.

Im Kontext der KI ist Vertrauen weiterhin ein wichtiger Aspekt. Wie viele Unternehmen werden sicherstellen, dass die Verantwortung des Chief Trust Officers den ethischen, moralischen und verantwortungsvollen Einsatz von KI in Produkten und Engagements umfasst? Wenn die KI einen Fehler macht, wer meldet den Fehler? Wer korrigiert den Fehler? Wie misst man das Vertrauen in die Beziehung zwischen der Maschine und den menschlichen Teamkollegen?

Laut Rebecca Herold, IEEE-Mitglied und Gründerin des Beratungsunternehmens The Privacy Professor, können sich aus der Integration von KI in die Sicherheitstechnologie viele potenzielle Vorteile ergeben: Rationalisierung der Arbeit, um die Abschlusszeiten für Projekte zu verkürzen, die Möglichkeit, schnelle Entscheidungen zu treffen und Probleme zu finden schneller.

Aber, fügt sie hinzu, es würden viele unausgegorene Fälle eingesetzt, und Käufer „tauchen am Ende in das tiefe Ende des KI-Pools, ohne auch nur ein bisschen zu hinterfragen, ob die KI ihrer Meinung nach der HAL 9000-Retter ist oder nicht.“ Ihr Geschäft funktioniert sogar wie versprochen.

Sie warnt auch davor, dass diejenigen, die die KI verwenden, plötzlich erkennen, dass diese KI eher der dunklen Seite von HAL 9000 ähnelt, als sie überhaupt gedacht hatten, wenn fehlerhafte KI-Ergebnisse sehr schiefgehen und zu Datenschutzverletzungen, Voreingenommenheit, Sicherheitsvorfällen und Bußgeldern bei Nichteinhaltung führen eine Möglichkeit sein.

Um zu vermeiden, dass Ihr KI-Teamkollege Ihnen sagt: „Es tut mir leid, Dave, ich fürchte, das kann ich nicht“, wenn Sie genaue, unvoreingenommene, datenschutzkonforme und konforme Ergebnisse verlangen Im Hinblick auf Datenschutzanforderungen rät Herold jedem CISO, acht Fragen zu stellen:

Es reiche nicht aus, den Aussagen des Vertriebsteams zu vertrauen, sagt Herold. Man müsse die Fähigkeit entwickeln, die Antworten auf die schwierigen Fragen herauszufinden oder Dritte zu finden, die sowohl vertrauenswürdig als auch kompetent seien.

Wenn eine Maschine ein Teamkollege ist, muss ein Mensch die Verantwortung für die Entscheidungen der Maschine übernehmen, sagt Investor und Redner Barry Hurd. „Die Zusammenarbeit mit KI-Teamkollegen erfordert spezielle Talente, um die Arbeitsbeziehung zu optimieren und nicht kaputt zu machen“, sagt er. „Menschen sind nicht darauf ausgelegt, mit den gleichen Toleranzen wie eine Maschine zu arbeiten. Wenn wir an einen Science-Fiction-Film denken, in dem ein mechanischer Arm im Vergleich zu einem schwachen menschlichen Körper unzerstörbar ist, sind unsere Logik und unsere Entscheidungsfähigkeit im Vergleich zur Verarbeitung ähnlich schwach Geschwindigkeit eines KI-Teammitglieds.“

Maschinen vervielfachen unsere Handlungen, egal ob sie richtig oder falsch sind, stellt Hurd fest. „Umfang und Geschwindigkeit müssen im Gleichgewicht mit unserer Reaktionszeit als Menschen sein, um ethische, rechtliche und moralische Zeit zum Handeln zu bewahren. KI im großen Maßstab birgt das Potenzial für Kollateralschäden im großen Maßstab in einem breiten Spektrum von Abteilungsbereichen.“

Dies wird zu Herausforderungen bei der Entscheidung über die Anzahl der menschlichen Failsafe-Schichten führen, die erforderlich sind, um jedem, der mit einem KI-System arbeitet, Zeit zu geben, zu überlegen, was akzeptabel ist. „Sobald die Entscheidung zum Handeln gefallen ist, ist die daraus resultierende Aktion beendet, bevor wir noch einmal erraten können, was gerade passiert ist“, sagt Hurd.

„Gepaart mit einer talentierten Gruppe menschlicher Partner, die verstehen, wie effektive Vielfache erzielt werden können, kann jedoch eine symbiotische Beziehung entstehen, in der kritisches Denken, Fachwissen und Moral im Gleichgewicht mit kalkuliertem Handeln und skalierter Automatisierung stehen. Das Risiko kann minimiert werden, und die Wirksamkeit vervielfachte sich zu diesem Zeitpunkt. Die besten Menschen werden die beste Technologie ermöglichen und umgekehrt.“

Es liegt auf der Hand, dass, wenn ein KI-Teamkollege eine Entscheidung getroffen hat, der menschliche Teamkollege „in der Lage sein muss, zu erklären, warum eine Entscheidung getroffen wurde“, sagt Gurtu.