Erik hat geschrieben: ↑5. März 2023 20:14
Wie beurteilt Ihr als IT-Fachleute dieses neue System eigentlich? Ist es so revolutionär, wie es scheint? Und bringt es mehr Vorteile oder Gefahren/Probleme?
Kommt erst einmal drauf an, wie du "IT-Fachleute" definierst.
Als jemand, der sogenannte "Kern-Informatik" studiert hat (hat nix mit Kernenergie zu tun), finde ich den aktuellen Hype ein wenig niedlich. Die technische Revolution dahinter sind die sogenannten künstlichen, neuronalen Netze und die sind heute nicht mehr wirklich neu. Da passiert zwar noch einige grundsolide Evolution, aber für die Feier der Revolution sind wir da reichlich spät dran.
Als jemand, der hauptsächlich in der angewandten Informatik und speziell in der Bildungstechnologie unterwegs ist, kann ich den aktuellen Hype sehr gut nachvollziehen. Dadurch, dass jetzt seit kurzem extrem leistungsfähige Anwendungen von KI-Sprachmodellen erstmals für die breite Masse verfügbar sind, ergeben sich zahlreiche neue Anwendungsmöglichkeiten, an die vorher nicht zu denken war. Die eine oder andere Tätigkeit wird durch die Verfügbarkeit leistungsstarker, textgenerierender KI sicher eine Revolution erfahren.
Ob die Vorteile oder die Gefahren überwiegen, ist eher philosophischer Natur. Beim Nudelholz sind wir uns alle einig, dass es eher nützlich ist und jeder eines besitzen darf, auch wenn ich damit jemanden erschlagen kann. Bei der Kernenergie wissen alle um die erheblichen Gefahren, bewerten den Nutzen aber unterschiedlich und kommen deshalb zu unterschiedlichen Gesamturteilen. Was bei der KI rauskommt, wird man sehen müssen.
WeissNix hat geschrieben: ↑6. März 2023 16:02
Diese paar Beispiele zeigen doch schon, dass es nur Spielerei sein kann - wo zB sind die Fussnoten mit den Belegen? Selbst die mittlerweile von vielen nicht mehr als seriöse Quelle akzeptierte Wikipedia liefert solche
Die Fußnoten mit den Belegen sind dort, wo sie bei folgendem Beitrag ebenfalls sind:
WeissNix hat geschrieben: ↑6. März 2023 19:19
Und damit sie ihre Meinung nicht doch noch ändern, wurden die Leitungen von mit uns
"verbündeten" Terroristen kaputtgebombt.
ChatGPT wurde nicht dafür gebaut, wissenschaftliche Texte im entsprechenden Schreib- und Zitierstil zu produzieren, sondern um menschliche Konversation nachzuahmen, so wie sie beispielsweise hier in diesem Forum stattfindet. Es gibt keinen Grund zu erwarten, dass die KI bessere Texte produziert als der durchschnittliche Forennutzer, weil das überhaupt nicht das Ziel war. Genau auf dieser Durchschnittlichkeit (bzw. der falschen Erwartung, dass die KI irgendwie besser sein müsste als das) basierten auch die meisten Anekdoten, sowohl im positiven wie im negaitven:
- Wenn ich etwas nicht weiß und eine Frage an eine unbestimmte Masse Leute stelle, denn wird derjenige, der sie mir beantwortet, im Durchschnitt die richtige Antwort wissen, was mir weiterhilft. Und das schafft dann auch die KI als Stellvertreter für eine undefinierte Menge Leute, deren Texte sie gelesen hat.
- Manchmal stelle ich eine Frage und es reißt jemand das Maul auf mit einer Antwort, obwohl er keine Ahnung hat. Dann bekomme ich eine schwammige bis falsche Antwort. Genauso kann auch die KI zufällig mal auf eine einfache Frage eine falsche Antwort geben.
- Wenn ich eine spezielle Frage zu einem speziellen Thema habe, dann wird auch derjenige, der sich durchschnittlich mit diesem Thema auskennt, diese Frage möglicherweise nicht beantworten können. Und dann kann auch die KI mal scheitern (siehe die Asterix-Fragen hier in diesem Thread).
- Wenn ich nur geschickt genug frage und mit Worten spiele, werde ich den durchschnittlichen, arglosen Gesprächspartner irgendwo aufs Glatteis führen können. Und genauso kann ich die KI mit geschickten Fragen übertölpeln.