DATENZÄHMEN LEICHT GEMACHT

Worte Stephen Hansen Grafiken Jean Wagemans, Federica Russo, Federico Gobbo

Künstliche Intelligenz (KI) ist in unserem täglichen Leben nicht mehr wegzudenken. Wie jede andere Technologie auch entwickelt sie sich ständig weiter. Während auf der einen Seite der Umfang und die Komplexität der KI-Technologie weiter zunehmen, wird sie auf der anderen Seite immer verbreiteter und damit benutzerfreundlicher und stellt neue Möglichkeiten für Anbieter und Verbraucher zur Verfügung. Eine wesentliche Bedeutung im Zusammenhang mit KI-Anwendungen kommt dem Sprachdesign zu. Sprachdesign kann die Fähigkeiten von KI transparent machen und das digitale Nutzererlebnis stärken. Eins vorweg: Die Zukunft mit KI wird sich
freundlich gestalten.

Das übergeordnete Ziel der künstlichen Intelligenz ist es, den Menschen auf die eine oder andere Weise zu helfen, indem eine Reihe von Werkzeugen verwendet wird. Dafür werden Algorithmen eingesetzt, die von Menschen entworfen wurden, um Probleme zu lösen, die nicht von einem einzigen Programm behoben werden können. Mit dem Aufkommen des maschinellen Lernens erhielt die KI die zusätzliche Fähigkeit, ihre Algorithmen gemäß den Anforderungen des Benutzers zu entwerfen, was besonders für die Analyse komplexer, großer Datensätze nützlich ist. Heutzutage verwenden die modernsten KI-Lösungen Deep-Learning-Ansätze, die auf dem basieren, was wir als „neuronale Netze“ bezeichnen.

Der Begriff lädt dazu ein, sich hypermoderne künstliche Nervensysteme vorzustellen, die durch Nanomaschinen erzeugt werden, in Wirklichkeit aber virtuelle Stapel von „intelligenten“ Algorithmen sind. Neuronale Netze können sich automatisch anpassen, wenn sie mit sich ändernden Inputs konfrontiert werden. Sie werden daher oft als „adaptive KI“ bezeichnet, die für ihre Robustheit (im Sinne von Genauigkeit und der Fähigkeit, Veränderungen ohne Anpassung der Struktur standzuhalten), Effizienz und Agilität bekannt ist. Um eine Deep-Learning-KI-Lösung richtig zu „trainieren“, werden große Datenmengen benötigt, und unter der Annahme einer relativen Datensatzkonsistenz, d. h. korrekt abgespeicherter Daten, können die Ergebnisse wirklich verblüffend sein. Derartige Analysen großer Datenmengen, die heute durchgeführt werden, wären sonst nicht möglich. Dies birgt jedoch auch große Probleme: einerseits einen Mangel an ausreichend zuverlässiger Transparenz und andererseits einen Mangel an Klarheit in Bezug auf die Neigung neuronaler Netze zur Voreingenommenheit.

Lust auf mehr? Den gesamten Artikel finden Sie in MUTBOARD & VOGEL Ausgabe Sechs. Weiterlesen …
Total
0
Shares

Empfohlene Beiträge