(BigStock Image) Anmerkung des Herausgebers: Vier Monate nach der Veröffentlichung seines ChatGPT-Chatbots enthüllte OpenAI seine neueste künstliche Intelligenztechnologie, GPT-4 Am Dienstag. Oren Etzioni, ehemaliger CEO des Allen Instituts für KI , Technischer Leiter des AI2 Inkubators , und Professor emeritiert an der University of Washington, bietet seine Gedanken.
GPT-4 ist da.
Es ist wesentlich umfassender und leistungsfähiger als ChatGPT, der die Welt bereits im Sturm erobert hat. GPT-4 kann Patienten diagnostizieren, Software schreiben, Schach spielen, Autorenartikel und vieles mehr.
Letzter Monat, OpenAI CEO Sam Altman twet : „Eine neue Version von Moore’s Gesetz, die bald beginnen könnte: die Höhe der Intelligenz im Universum verdoppelt alle 18 Monate. „
In den nächsten Jahren werden wir GPT-4 und seine ilk Auswirkungen sehen unsere Informationswirtschaft , Arbeitsplätze , Bildung , Politik , und sogar unser Verständnis dessen, was es bedeutet, intelligent und kreativ zu sein. Bezug auf ein GPT-Modell als blurry JPEG des Internets unterstellt sowohl seine aktuellen Fähigkeiten als auch zukünftiges Potenzial.
Es ist jedoch wichtig, darauf hinzuweisen, dass die Technologie einige Einschränkungen hat, die ihrer „Familien-DNA“ innewohnen. „
GPT-4 hat einige Oberflächenprobleme.
- Es wird von einem umfangreichen Satz von menschlich bearbeiteten „Beschützer“ eingeschränkt, die versuchen, es zu verhindern, dass es an der Wand oder an der Wand anstößt.
- Es aktualisiert nicht sein Wissen in Echtzeit.
- Sein Befehl von anderen Sprachen als Englisch ist begrenzt.
- Es analysiert nicht Audio oder Video.
- Es macht immer noch arithmetische Fehler, die ein Rechner vermeiden würde. Keines dieser Probleme ist jedoch dem Ansatz innewohnend. Denjenigen, die sie reparieren, würde ich sagen: “Bitte meinen Finger nicht an, schau dir an, wo ich hinze.” Alle diese Probleme werden in GPT-5 oder in einer nachfolgenden Version von OpenAI oder einem Wettbewerber überwunden.
RELATED: Microsoft bestätigt, dass Bings AI-powered-Suchchatbot auf OpenAIs neuer GPT-4 läuft
Mehr herausfordernd ist die Tatsache, dass GPT-4 noch nicht vertrauenswürdig ist. Wie ChatGPT, es “hallutiert”, Fakten zu bilden und sogar diese Fakten mit erfundenen Quellen zu unterstützen. Schlimmer, das tut es mit dem blithe Vertrauen eines gewöhnlichen Lügners.
Wie ChatGPT, kann es in seinen Antworten unvereinbar sein, wenn mit mehreren Fragen auf der gleichen Sache. Das geschieht, weil es nicht über eine Reihe von zugrunde liegenden Überzeugungen und Werten verfügt – stattdessen reagiert es auf menschliche Eingaben basierend auf einer obskuren Kombination seiner Trainingsdaten und seinem internen, mathematisch formulierten Ziel.
Aus diesen Gründen zeigt es auch pervasive Vorurteile — Sie wären dumm, seine Antworten ohne sorgfältige Überprüfung zu vertrauen. Human Programmierer, die ein GPT-Stil-Tool verwenden, genannt GitHub CoPilot , um Schnipsel von Software-Code zu produzieren, sorgfältig überprüfen und testen Sie die Software, bevor sie in ihre handschriftlichen Programme. Dennoch macht jede Generation der Technologie weniger Fehler, und wir können davon ausgehen, dass dieser Trend weitergeht.
Aufgrund dieses schnellen Fortschritts und des beispiellosen Erfolgs ist es wichtig, hervorzuheben, dass GPT-4 und die volle Bandbreite ähnlicher KI-Technologien (manchmal „Gründermodelle“ oder „generative KI“) grundlegende Einschränkungen aufweisen, die in absehbarer Zeit nicht überwunden werden.
Im Gegensatz zu Menschen haben GPT-Modelle keinen Körper. Die Modelle verlassen sich auf gebrauchte Informationen, die verzerrt oder unvollständig sein können. Im Gegensatz zu Menschen können GPT-Modelle Empathie simulieren, aber nicht fühlen. Während simuliertes Empathie seine Verwendung hat (denken Sie an einen Teenager, der eine Schulter braucht, um auf 2 Uhr im ländlichen Kansas zu weinen), ist es nicht die eigentliche Sache.
Während GPT-Modelle in ihren Antworten unendlich kreativ und überraschend erscheinen, können sie nicht komplexe Artefakte entwerfen. Vielleicht ist der einfachste Weg, dies zu sehen, die Frage zu stellen: Welche Komponenten von GPT-4 wurden von einem generativen Modell entworfen? Die hochmoderne KI lehrt uns, dass GPT-4 durch Skalierung und Tinkering mit human gestalteten Modellen und Methoden gebaut wurde, die Googles umfassen BERT und AI2’s ELMo . Steven Wolfram gab einen zugänglichen Überblick über die Technologie hier .
Unabhängig von den Details ist klar, dass die Technologie Lichtjahre davon ist, sich selbst zu gestalten. Darüber hinaus, um einen Chatbot zu entwerfen, müssen Sie beginnen, indem Sie das Ziel, die zugrunde liegenden Trainingsdaten, den technischen Ansatz, bestimmte Subgoals, und mehr zu formulieren. Dies sind Orte, an denen Experimente und Iteration erforderlich sind.
Sie müssen auch die relevanten Ressourcen erwerben, die entsprechenden Personen einstellen und mehr. Natürlich wurde das alles von den talentierten Menschen bei OpenAI getan. Wie ich in die MIT Technology Review , die erfolgreiche Formulierung und Durchführung solcher Bemühungen bleibt eine deutlich menschliche Fähigkeit.
Die wichtigsten GPT-Modelle sind Werkzeuge, die an unserem Behest arbeiten. Während bemerkenswert mächtig, sie sind nicht autonom . Sie antworten auf unsere Befehle.
Betrachten Sie die Analogie zu selbstfahrenden Autos. In den kommenden Jahren werden selbstfahrende Autos vielseitiger und immer sicherer, aber die Autos werden nicht das Ziel bestimmen, zu dem wir fahren - diese Entscheidung gehört dem Menschen. Ebenso liegt es an uns, zu entscheiden, wie man GPT-Modelle verwendet – für die Erledigung oder für Fehlinformationen.
Der große Pablo Picasso sagte berühmt: “Computer sind nutzlos. Sie geben dir nur Antworten. „
Während GPT-Modelle weit von nutzlos sind, sind wir immer noch diejenigen, die die grundlegenden Fragen formulieren und die Antworten bewerten. Das wird sich nicht bald ändern.