Künstliche Intelligenz: Die Nutzen und Gefahren von denkenden Maschinen

Von Descartes bis DARPA, von künstlichen Tieren bis zu empfindungsfähigen Computern - wir werfen einen Blick auf die lange Entwicklung der Künstlihen Intelligenz.

Jocelyn Jovène 19.04.2023
Facebook Twitter LinkedIn

brain and man in suit

"Künstliche Intelligenz ist das Gebiet, das sich mit dem Bau von künstlichen Tieren und für viele auch von künstlichen Personen befasst (oder zumindest von künstlichen Kreaturen, die - in geeigneten Kontexten - wie Personen erscheinen)". So heißt es in der Stanford Encyclopedia of Philosophy. Gleichzeitig erklärt die US Defense Advanced Research Projects Agency (DARPA), dass KI "eine programmierte Fähigkeit zur Informationsverarbeitung" ist.

Künstliche Intelligenz (KI) ist äußerst schwer zu definieren, wie das US Government Accountability Office bestätigt.

Zudem gibt es eine intensive Debatte darüber, wie "intelligent" KI überhaupt ist, wie dieser Artikel zeigen wird. Diese Debatte entwickelt sich jedoch so schnell wie die Technologie selbst - und die hat in letzter Zeit einige Sprünge gemacht.

Rückblick

Im Jahr 1956 fand im Dartmouth College in New Hampshire eine von der DARPA gesponserte Konferenz statt. Zu den Teilnehmern gehörten Professor John McCarthy, Claude Shannon, Marvin Minsky (berühmt für den "Minsky Moment"), Arthur Samuel, Trenchard Moore, Ray Solomonoff, Oliver Selfridge, Allen Newell und Herbert Simon.

Es wird angenommen, dass auf dieser Konferenz zum ersten Mal der Begriff "künstliche Intelligenz" verwendet wurde. Ziel der Veranstaltung war es, "von der Vermutung auszugehen, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine in der Lage ist, diesen zu simulieren".

Die Idee von intelligenten Maschinen lag bereits in der Luft. In einem berühmten Artikel von 1950 fragte Alan Turing: "Kann eine Maschine denken?"

Aber diese Frage hatte Philosophen und Denker schon seit Jahrhunderten beschäftigt, vor allem Descartes in seinem Discours de la Methode von 1637. Sie fragten sich, wie es irgendwann möglich sein würde, Maschinen von Menschen zu unterscheiden. Eine Frage, die auch im Jahr 2023 noch im Mittelpunkt der KI-Debatte steht.

 

Von Chatbots zu ChatGPT

Die KI-Technologie hat eine Reihe von Evolutionsstufen durchlaufen, wie dieses Video der DARPA zeigt.

Diese Fortschritte wurden vor allem durch die erhebliche Steigerung der Rechen- und Speicherleistung in den letzten 15 Jahren möglich.

Im November 2022 wurde ChatGPT von dem US-amerikanischen Unternehmen OpenA der Öffentlichkeit vorgestellt. Zu diesem Zeitpunkt hat die Welt erkannt, dass KI in irgendeiner Form in der Lage ist, eine scheinbar vernünftige Diskussion über ein beliebiges Thema zu führen (sie kann auch programmieren und mathematische Probleme lösen, und zwar in verschiedenen Sprachen).

Zwar gibt es Chatbots in verschiedenen Formen schon seit Jahren (Apple brachte Siri 2010 auf den Markt), doch der Erfolg von ChatGPT zeigt, dass KI das Potenzial hat, viele Branchen zu verändern. Aber auch als nützliche Ergänzung zu menschlichen Tätigkeiten und nicht als Ersatz (auch wenn dies in einigen Fällen der Fall sein wird).

Fortschritt und Hoffnung

Die KI hat bereits viele Wellen des Überschwangs und der Enttäuschung ausgelöst. Was macht den aktuellen Hype anders? Der größte Teil der früheren Aufregung bezog sich darauf, dass KI in der Lage sein würde, wie Menschen zu "denken".

Wir wissen, dass dies in absehbarer Zeit nicht der Fall sein wird. ChatGPT mag den Eindruck erwecken, denken zu können, aber es nutzt lediglich Statistiken, um bei der Beantwortung einer Frage ein Wort an das andere zu reihen. Es ist massiv abhängig von den vorhandenen Internetinformationen und der schieren Menge an Daten, auf denen es trainiert wird.

Dennoch sollten die Fortschritte im Bereich KI und maschinelles Lernen nicht übersehen werden. Sie sind bereits in viele Produkte wie Smartphones integriert und bieten neue Funktionen wie Sprach- und Bilderkennung.

Diese Technologien helfen bei der Erkennung von Betrug/Spam, der Moderation von Inhalten, der Wettervorhersage, dem Lieferkettenmanagement und vielen anderen Aufgaben.

Einem aktuellen McKinsey-Bericht zufolge hat sich der Einsatz von KI zwischen 2017 und 2022 mehr als verdoppelt, wobei immer mehr Unternehmen in KI investieren, um ihre Abläufe zu verbessern und wettbewerbsfähiger zu werden.

In einem Bericht von Goldman Sachs wird geschätzt, dass KI das globale BIP über einen Zeitraum von 10 Jahren um 7 Prozentpunkte steigern könnte. In ihrer Einschätzung stellt die Bank fest, dass bis zu einem Viertel der Arbeitsplätze in den USA durch KI/Automatisierung ersetzt werden könnten, während die überwiegende Mehrheit KI als Ergänzung zu bestehenden Tätigkeiten nutzen würde.

Die Hindernisse

Wie ChatGPT zeigt, sind die Fortschritte im Bereich der KI schnell, aber die wirklichen Herausforderungen werden kommen, wenn wir versuchen, die von Menschen oder Maschinen stammenden Inhalte/Interaktionen zu trennen.

"Durch die Nutzung neuerer Augmented-Reality- und Virtual-Reality-Technologien wird die Fähigkeit, komplexe Umgebungen synthetisch zu erschaffen und menschliche Interaktion zu ermöglichen, die Grenzen zwischen den Realitäten verwischen und zunehmend eine Reihe neuer ethischer und rechtlicher Herausforderungen in Bezug auf ihre ordnungsgemäße Nutzung aufwerfen", so Jeffrey L. Turner und Matthew Kirk von der Anwaltskanzlei Squire Patton Boggs.

Der massive Einsatz von KI wirft Fragen in Bezug auf das geistige Eigentum auf: Wem gehören die Inhalte, die die Technologie nutzt, um sich selbst zu trainieren und effizienter zu werden? Diese Fragen sind noch nicht ausreichend geklärt. Es gibt auch Fragen der "Computerethik", die regelt, wie die Interaktionen zwischen Maschine und Mensch richtig zu handhaben sind.

Trotz der Fortschritte - die KI wird sich beweisen müssen. 

 

 

Facebook Twitter LinkedIn

Über den Autor

Jocelyn Jovène

Jocelyn Jovène  ist Redakteur für Morningstar in Frankreich