Künstliche Intelligenz ist privat und beruflich im Einsatz, die Schweizer sind besonders affin für die technologische Entwicklung. Im Job erledigt KI repetitive Aufgaben, im Privatbereich werden Tools wie ChatGPT als Psychologe, Kumpel, Berater, Rezeptbuch und vieles mehr genutzt. Doch die technische Weiterentwicklung hat ihre Schattenseiten, wie die steigende Anzahl an Fehlinformationen im Netz beweist.
Wer sich auf KI verlässt, ist oft verlassen
KI kann Texte erstellen, fasst Inhalte zusammen und hat auf Fragen immer eine Antwort. Genau das ist eine der größten Schwierigkeiten von künstlicher Intelligenz. Übersetzungen oder Antworten wirken überzeugend, selbst wenn sie falsch oder ungenau sind. Wer diese Antworten ungeprüft übernimmt, kann sie als Basis für falsche Entscheidungen mit fatalen Folgen nutzen.
Das betrifft auch den professionellen Bereich. In einem Übersetzungsbüro beispielsweise ist maschinelle Unterstützung sehr wertvoll, doch ohne fachliche Kontrolle entstehen schnell Fehler im Sinn, Ton oder in der Terminologie. Das ist gerade bei rechtlichen oder technischen Texten ein grosses Problem.
Wenn ein Übersetzer Schweiz und andere Länder miteinander verbinden soll und möchte, benötigt er zusätzlich zur maschinellen Unterstützung eigenes Know-how und eine fundierte Ausbildung, um bestmögliche Ergebnisse zu liefern.
Fehlinformationen durch KI in der Schweiz deutlich gestiegen
Die Problematik zeigt sich auch in aktuellen Daten. Laut einer Erhebung des Schweizer Bundesamts für Statistik berichten immer mehr Menschen, dass sie im Internet auf zweifelhafte oder falsche Inhalte stossen. Gleichzeitig steigt die Nutzung generativer KI sowohl privat als auch beruflich deutlich an. Diese Entwicklung heisst nicht, dass KI allein für Desinformationen verantwortlich ist, sie erleichtert aber die Erstellung und Verbreitung täuschend wirkender Inhalte erheblich.
Es braucht nur wenige Klicks, um Texte und Bilder mit vergleichsweise geringem Aufwand zu erstellen und selbst Stimmen können bereits künstlich generiert werden. Dadurch wächst die Menge an Informationen schneller als die Möglichkeiten, sie zu überprüfen. Für viele unerfahrene Nutzer mit geringer Medienkompetenz wird es immer schwieriger zu erkennen, welche Inhalte vertrauenswürdig sind. Was in der Wirtschaft zu Fehlentscheidungen führen kann, betrifft auch Menschen im privaten Kontext.
Wie kann sich die Bevölkerung vor Fehlinformationen schützen?
Der wichtigste Schutz besteht darin, Informationen nie ungeprüft zu übernehmen. Quellen müssen verglichen und Veröffentlichungsdaten beachtet werden. Besonders bei Themen mit grosser Tragweite lohnt es sich, offizielle Stellen, Fachmedien und wissenschaftliche Texte heranzuziehen.
Wer die Funktionsweise digitaler Werkzeuge versteht, kann sich Fehler durch KI besser erklären. Die Systeme liefern Vorschläge und Wahrscheinlichkeiten, keine gesicherten Fakten. Man muss sich dieser Einschränkungen und Grenzen bewusst sein, um die Technologie sinnvoll zu verwenden.
Warum halluziniert KI?
Ein bekanntes Phänomen bei gängigen KI-Systemen sind Halluzinationen. Es werden plausibel klingende Informationen erzeugt, die nicht der Realität entsprechen. Hier steckt die Arbeitsweise der Modelle dahinter. Sie berechnen die Wahrscheinlichkeit für Wörter und Zusammenhänge, anstatt Inhalte wirklich wie ein Mensch zu verstehen oder gar zu prüfen.
Sind die Trainingsdaten lückenhaft oder ist der Kontext unklar, entstehen schnell falsche Aussagen. Es kommt hinzu, dass auch Menschen KI missbräuchlich einsetzen, um Desinformationen zu erzeugen. Automatisierte Systeme lassen sich dafür nutzen, um grosse Mengen an irreführenden Texten oder manipulierten Inhalten oder Texten zu verbreiten.
Für die Schweizer Gesellschaft ist das eine Gefahr, die sich nur durch Aufklärung und Awareness minimieren lässt. Wenn die Schweizer den Blick hinter die Kulissen von KI werfen, sind die Chancen gross, Fakes früher zu erkennen und Desinformationen zu meiden.
(Bild: Unsplash)

