Das Thema K眉nstliche Intelligenz (KI) gewinnt immer mehr an Bedeutung 鈥� mit der zunehmenden Digitalisierung s盲mtlicher Lebensbereiche hat KI das Potenzial, unsere Gesellschaft grundlegend zu ver盲ndern. Daher ist es unausweichlich, dass wir uns mit den Auswirkungen und M枚glichkeiten von KI auseinandersetzen, um eine verantwortungsvolle und nachhaltige Nutzung dieser Technologie zu gew盲hrleisten. 脺ber die M枚glichkeiten und Herausforderungen, die KI mit sich bringt, spricht unser Cybersecurityexperte Robert Lamprecht mit Bernhard Knasm眉ller vom 乐鱼(Leyu)体育官网 Lighthouse Team.
Im allgemeinen Sprachgebrauch wird ChatGPT als Synonym f眉r K眉nstliche Intelligenz verwendet. Aber was steckt eigentlich genau dahinter und wann sprechen wir von k眉nstlicher Intelligenz?
Bernhard Knasm眉ller: K眉nstliche Intelligenz hat uns ja bereits die letzten 10-20 Jahre in der einen oder anderen Form begleitet. Anfangs war es vielleicht eher noch ein esoterisches Thema an Universit盲ten, ist dann aber 眉ber Applikationen im Bereich visuelle Erkennung, also Bild- und Spracherkennung, bis hin zu ersten digitalen Assistenten wie Siri in unserer Hosentasche gelandet. Seit dem Durchbruch von Firmen wie OpenAI, den sie mit ChatGPT geschafft haben, ist der Begriff K眉nstliche Intelligenz oft mit dem Thema Large language models (LLM) verkn眉pft. Das sind Produkte wie ChatGPT, die in der Lage sind, mit nat眉rlichem Text zu arbeiten, eine gewisse Kreativit盲t an den Tag legen und ein sehr gro脽es und generelles Einsatzgebiet haben, im Vergleich zu den sehr speziellen L枚sungen, die wir in der Vergangenheit gesehen haben.
Was kann man sich unter einem Large language model vorstellen?
Bernhard Knasm眉ller: LLM wie ChatGPT werden auf sehr gro脽e Datenmengen trainiert - also wirklich big Big Data - die eigentlich nur von sehr gro脽en Konzernen mit gigantischen Rechenzentren und einer sehr gro脽en Anzahl an Grafikkarten verarbeitet werden k枚nnen. Aus diesen trainierten Modellen entstehen dann sogenannte Foundation Models. Das sind noch sehr generell einsetzbare Modelle, eben zum Beispiel die GPT-Familie von OpenAI. Aus diesen Foundation models k枚nnen dann mit Feintuning und sogenanntem Prompt Engineering fertige Modelle gebaut werden, die dann auf irgendeinen bestimmten Task, also eine bestimmte Art von Arbeit spezialisiert sind. Bei ChatGPT ist das zum Beispiel die Aufgabe, auf Chatnachrichten zu antworten 鈥� und diese Antwort soll nat眉rlich so sein, dass sie die Frage mit einer gewissen Wahrscheinlichkeit beantwortet. Das klingt auch noch sehr generell, aber die Foundation models k枚nnten zum Beispiel auch darauf trainiert sein, Instruktionen zu erstellen oder Texte zu vervollst盲ndigen. Also da gibt es noch eine gr枚脽ere Anzahl an m枚glichen Aufgaben.
ChatGPT ist bereits in der breiten Masse der Bev枚lkerung angekommen. Gibt es dar眉ber hinaus noch etwas anderes, das momentan vielleicht noch nicht so viel Aufmerksamkeit bekommt?
Bernhard Knasm眉ller: Diese typischen Use Cases 鈥濨itte schreib mir eine E-Mail鈥�, 鈥濨itte schreib mir eine Hausaufgabe鈥� etc. waren am Anfang nat眉rlich das, was die breite Masse fasziniert hat. Tats盲chlich sind die Modelle sehr, sehr flexibel einsetzbar, auch innerhalb von Businessprozessen beispielsweise. Das geht von E-Mail-Klassifizierung in verschiedene Abteilungen 眉ber Codeprogrammierung bis hin zu Datenanalyse. Seit einiger Zeit gibt es auch die M枚glichkeit, mit Plug-ins zu arbeiten, die in der Lage sind, Codes zu schreiben und zu verstehen oder Plots zu erstellen. Also es gibt da schon sehr vielf盲ltige Werkzeuge 鈥� und ich denke nicht, dass wir alle die gesamte Tragweite dessen, was auf uns zurollt, schon erfasst haben.
Die Tragweite ist ein wichtiger Punkt 鈥� und es gibt viele Bedenken. Stehen wir hier vor einer Ver盲nderung, die uns als Gesellschaft nachhaltig umgestalten wird?
Bernhard Knasm眉ller: Das Ersetzen von Jobs ist nat眉rlich immer eine Frage, die in diesem Kontext gestellt wird. Die Antwort der meisten Expert:innen ist dann, dass in Summe neue Jobs entstehen und bestehende Jobs produktiver werden. Die Wahrheit ist nat眉rlich, dass gewisse Arten von Berufen in den n盲chsten Jahren marginalisiert werden oder auch aussterben. Die Frage ist nat眉rlich, wie man als Gesellschaft dann damit umgeht. Ist es sinnvoll, diese neue Technologie zu Tode zu regulieren? Ich pers枚nlich glaube nicht, dass wir, als Europa es uns leisten k枚nnen, nicht auf diesen Zug aufzuspringen, denn ich halte es eher f眉r gef盲hrlich, wenn wir dann de facto das Feld L盲ndern wie China 眉berlassen, die wesentlich weniger Regularien planen und vielleicht nicht mit unseren Vorstellungen einer liberalen Demokratie agieren.
Wir m眉ssen uns also dem Thema stellen, um nicht technologisch ins Hintertreffen zu geraten?
Bernhard Knasm眉ller: Ja, definitiv. Wir sehen, dass KI jetzt in sehr vielen Bereichen die Eintrittsh眉rden deutlich verringert. Das bringt nat眉rlich auch Chancen, dem Fachkr盲ftemangel etwas entgegenzuwirken. Denkt man z. B. an den Bereich der Softwareentwicklung, wo man mithilfe von KI und Tools wie GitHub Copilot 鈥� einer Art Co-Pilot, der kleine Programmierfehler bemerkt oder auch eigenst盲ndig Codes weiterschreiben kann 鈥� fehlende Fachkr盲fte in einem gewissen Ausma脽 kompensieren bzw. bestehende Entwickler produktiver machen kann. Daher halte ich es nicht f眉r richtig, jetzt zu fr眉h durch zu strenge Regulatorik das Thema den gro脽en Konzernen zu 眉berlassen 鈥� das ist, denke ich, nicht der richtige Zugang.
Wie eingangs schon erw盲hnt, schafft KI M枚glichkeiten f眉r kreativere Ans盲tze. Das betrifft leider auch den cyberkriminellen Bereich 鈥� sie bietet eine Vielzahl an M枚glichkeiten, Angriffe zu lancieren. Inwieweit wird sich das Thema K眉nstliche Intelligenz in den Cyberangriffen widerspiegeln?
Bernhard Knasm眉ller: Das ist eine berechtigte Frage. Das Problem ist, dass Angreifer in der Regel in der Gruppe der Early Adopters zu finden sind, was neue Technologien betrifft und daher vielleicht einen gewissen Startvorteil gegen眉ber den Verteidigern haben, die hier noch etwas z枚gerlicher agieren. Umso wichtiger ist es, glaube ich, dass man zumindest mal die Awareness schafft, welche neuen Arten von Angriffen durch solche KI-Unterst眉tzung jetzt m枚glich werden.
Es hei脽t immer, die Angreifer finden ihre Tools und Werkzeuge im Darknet 鈥� gibt es hier eigentlich auch schon etwas 脛hnliches f眉r KI-basierte Angriffssysteme?
Bernhard Knasm眉ller: Wir haben tats盲chlich schon einiges im Darknet oder einschl盲gigen Hackerforen gesehen. Einerseits haben Angreifer bereits begonnen, selbst Modelle zu bauen und im Open Source Bereich anzubieten. Das sind 盲hnliche Tools wie ChatGPT, aber basierend auf LLMs, die sie daraufhin trainiert haben, f眉r angreifende Zwecke verwendbar zu sein 鈥� was mit Tools wie z. B. ChatGPT nicht m枚glich ist, da hier entsprechende Schutzmechanismen eingebaut sind. Andererseits gibt es in diesen Hacker- bzw. Darknet-Foren die M枚glichkeit, Jailbreaks zu erwerben, die versuchen, Tools wie ChatGPT die antrainierten Einschr盲nkungen auszureden.
Es geht also eigentlich um die Kunst, diese Sicherheitsma脽nahmen beziehungsweise diese Schranken zu umgehen?
Bernhard Knasm眉ller: Richtig, und die Angreifer haben einerseits sehr viel Zeit und andererseits sehr viel Energie, um sich neue kreative L枚sungen zu 眉berlegen, solche Sperren zu umgehen. Und es wird wahrscheinlich noch einige Zeit dauern, bis Modelle wie ChatGPT es schaffen, solchen Angriffen zu widerstehen.
Jetzt gibt es aber nicht nur textbasierte Modelle wie ChatGPT, die von Angreifern genutzt werden. Die M枚glichkeiten, die durch die K眉nstliche Intelligenz entstehen, betreffen uns nat眉rlich auch bei der Verwendung von Videokonferenzsystemen. Wann wird dieser Bereich eine Herausforderung f眉r uns als Gesellschaft?
Bernhard Knasm眉ller: Leider wahrscheinlich sehr bald. Wir haben ja schon gesehen, dass es mit sehr viel Aufwand heute schon m枚glich ist, sogenannte Deepfakes zu produzieren, die mit freiem Auge f眉r Laien nicht mehr unterscheidbar sind. Momentan funktioniert es bei Videos noch leichter mit 枚ffentlichen Personen, da hier sehr viel Bildmaterial im Internet vorhanden ist. Im Tonbereich reicht allerdings tats盲chlich auch heute schon eine ca. 30-sek眉ndige Sprachaufnahme einer Person, um ein relativ realistisches Sprachmodell damit zu trainieren und dann einen beliebigen Text ausgeben zu lassen. Das macht es extrem schwer zu beurteilen, ob man z. B. einem unbekannten Anrufer vertrauen kann. Im Businessbereich haben wir durch E-Mail-Adressen oder MS Teams-Accounts derzeit noch eine gewisse Schwelle, aber ewig wird man uns 眉ber Video oder Audio wahrscheinlich nicht mehr eindeutig zuordnen k枚nnen.
M眉ssen wir uns als Gesellschaft auf viel herausforderndere Angriffsmuster als bisherige Phishingmails einstellen?
Bernhard Knasm眉ller: Definitiv. Um vielleicht ein konkretes Beispiel zu bringen: Jede:r kennt diese SMS-Nachrichten von einem Paketdienstleister, in der ein Link angef眉hrt ist zum Abholen des Pakets 鈥� dieser Link enth盲lt dann nat眉rlich einen Schadcode. Solche zugeschnittenen SMS werden dann besonders h盲ufig in der Weihnachtszeit verschickt, in der viele Personen Versanddienste in Anspruch nehmen und somit weniger alarmiert sind, wenn so eine Nachricht kommt. Es ist eine recht unaufwendige Methode f眉r Angreifer, eine gro脽e Anzahl an Menschen zu erreichen. Oft reichen hier nur ein paar Backgroundinformationen aus einer Googlesuche, um mithilfe von LLM eine total zugeschnittene Nachricht mit einem Schadcode-Link zu erstellen.
Noch gef盲hrlicher wird es, wenn es einem Angreifer gelingt, ein E-Mail-Postfach zu 眉bernehmen. Dann kann der Eindringling mithilfe von KI s盲mtliche Konversationen nachlesen und die LLM auf den jeweiligen Schreibstil trainieren, um so Nachrichten verschicken zu k枚nnen, die praktisch nicht mehr vom Original unterschieden werden k枚nnen 鈥� im Gegensatz zu vielen derzeitigen Phishingmails, die oft noch grammatikalische Fehler aufweisen. Allerdings ist hier auch die Quantit盲t eine gewisse Qualit盲t, denn wenn man jetzt in einer Stunde 1.000 E-Mails verschicken kann, dann wird wahrscheinlich auch einer drauf reinfallen.
Wir werden also eine neue Qualit盲t von Angriffen im Bereich des Social Engineerings erleben, wo es uns schwerfallen wird, zwischen Realit盲t und Fiktion zu unterscheiden.
Bernhard Knasm眉ller: Auf jeden Fall 鈥� vor allem jetzt in der Anfangsphase, wo die Angreifer sich dieser M枚glichkeiten schon bewusst sind, aber z. B. die Unternehmen davon noch 眉berrumpelt werden. Darum finde ich es auch so wichtig, Awareness zu schaffen, die M枚glichkeiten solcher Tools zu demonstrieren.
Welche Tipps, welche Empfehlungen gibt es?
Bernhard Knasm眉ller: Ein wichtiger Punkt, um den Gefahren etwas entgegenzuwirken, ist eine starke Authentifizierung 鈥� wie die Zwei-Faktor-Authentifikation und ein starkes Passwort. Aber nat眉rlich muss auch von technischer Seite daran gearbeitet werden, sprich die Verteidigungssysteme m眉ssen sich mit dem Thema KI besch盲ftigen. Und das passiert ja auch. Es gibt schon einige Security-Unternehmen, die versuchen, KI auch in ihre Produkte einzubauen und somit Werkzeuge zur Verf眉gung zu stellen, die mit solchen Angriffen umgehen k枚nnen. Und zu guter Letzt ist es nat眉rlich wichtig, eine kritische Haltung gegen眉ber Informationen zu bewahren und auch zu hinterfragen bzw. sich mit Quellen kritischer auseinanderzusetzen.
Wenn wir in 12 Monaten wieder 眉ber das Thema K眉nstliche Intelligenz reden, was w眉rden wir uns dann w眉nschen, heute schon getan zu haben?
Bernhard Knasm眉ller: Wie wir eingangs schon erw盲hnt haben, m眉ssen wir den europ盲ischen Standort in jederlei Hinsicht st盲rken, einerseits mit Investitionen im Bereich KI als auch was das Thema Grundlagenforschung betrifft. Es ist immer noch sehr viel los im Forschungsbereich, und 脰sterreich h盲tte durchaus die M枚glichkeit, da noch mitzumischen. Es hat leider derzeit offenbar keine Priorit盲t und das ist definitiv ein Punkt, der verbesserbar ist.
Weiters w盲re es f眉r Unternehmen jetzt ein sehr guter Zeitpunkt, sich mit dem Thema KI-Strategie auseinanderzusetzen. Welche Auswirkungen wird KI auf meine Produkte, auf meine Dienstleistungen und meine internen Prozesse haben?
Und ganz besonders relevant ist eben das Thema Security. Wir m眉ssen uns damit auseinandersetzen und uns bewusst werden, wie wir auf die neuen Arten von Risiken reagieren.
Zusammenfassend l盲sst sich also sagen: Wir m眉ssen den neuen Technologien auf Augenh枚he begegnen und diese f眉r uns nutzen, aber gleichzeitig auch die Risiken entsprechend ausbalancieren.