Weil die Diskussion um ChatGPT und andere Sprachmodelle einfach nicht abebben will, beteiligen wir uns eben dran. Andernfalls drohen wir noch verrückt zu werden. Debora Weber-Wulff und Constanze Kurz schreiben sich den Frust von der Seele, präsentieren aber auch drei einfache Regeln für eine ethische Verwendung von KI-Systemen.
Puh, also ich hab ChatGPT jetzt schon öfter versucht als Hilfestellung fürs programmieren zu benutzen und es kam immer Bullshit raus. Der hat immer irgendwelche Bibliotheken und Parameter erfunden die so wirken als wären sie die genaue Wunderwaffe für mein Problem. Das Problem ist dann, dass ChatGPT diese Bibliotheken aus zB Javascript kennt, mein Problem aber zB in GoLang ist, ChatGPT “übersetzt” dann die Dokumentation von der Javascript Bibliothek so dass sie aussieht als wäre sie Go.
Ich sehe großes Potenzial in ChatGPT wenn man es richtig einsetzt. Man kann es super nutzen um zB seine Texte umschreiben zu lassen. ChatGPT interpretiert dann den Text wie es ihn versteht und wenn die neue Variante von ChatGPT Fehler enthält, kann man gut daraus schließen wo der Ursprungstext Interpretationsspielraum bietet und falsch verstanden werden kann. Auch für schnelle Businessmails ist das gut. Aber in meinen Augen nicht fürs Programmieren
Ich habe das Problem kaum, aber ich nutze GPT 4 seit verfügbar und gehe recht konservativ an die Sache ran. Immer nur ein, zwei Probleme auf einmal, dann schrittweise erweitern, überschaubarer Kontext, Handkorrektur wenn notwendig, dann meist neuer Chat um den alten Kontext mit Fehlern nicht drin zu behalten. Die API ist super, da kann man direkt die Antworten editieren, dann kann man das sparen. Und natürlich proaktiv auf Fehler hinweisen, in vielen Fällen reicht das, insbesondere mit Fehlermeldungen, aber wenn nicht, sollte man genug Ahnung haben, um es geradezurücken.
Größere Projekte passen halt nicht in den Kontext oder es sind einfach zu viele Infos. Ich behandle das Ding so ähnlich wie einen brillianten, aber absolut unerfahrenen Azubi. Einfache Arbeiten mit wenig Domänenwissen abgeben, Ergebnisse prüfen, Feedback geben, nicht zu viel erwarten und über schnelle Erfolge freuen weil nicht selbstverständlich. Selbst damit spare ich oft mehrere Stunden am Stück.
Das ist doch genau was OP mitunter meinte. Es geht nicht um den ist-Zustand, sondern um den Weg, der hier geebnet wird und der irgendwann unser aller Leben beeinflussen wird.
OP hat aber den Ist-Zustand bei seinem Programmierbeispiel beschrieben und darauf bin ich eingegangen :) zumindest für meine Anwendungsfälle ist es aktuell eher problematisch als hilfreich
Maschinelles Lernen wird in der Medizin schon regelmäßig eingesetzt, zB zur Tumorerkennung auf CT-Bildern. Das kann man natürlich nutzlos nennen, aber naja…
Hm okay, aus Deutschland lese ich eher Nachrichten wie: Oh Gott niemand hat die Website von ChatGPT geöffnet, was kommt jetzt auf uns zu. Jedenfalls in den Nachrichten.
Schon GitHub Copilot probiert? Das steigert wirklich die Produktivität, einfach weil es ganze Blöcke an Boilerplate automatisch und angepasst vorschlagen kann.
Ich benutze es gerade fürs Programmieren. Kleine Konstrukte, keine kompletten Programme, schreibt es mir relativ zuverlässig und es sind meist nur Kleinigkeiten, die ich korrigieren muss. Oder solche Sachen, wie etwas verzwicktere regular expressions inkl. dem Drumherum, wie dem genauen Verwerten der Ergebnisse, kriegt es gut hin. Gerade das ist auch etwas, was immer etwas umständlich zu googeln ist.
ChatGPT ersetzt mich als Programmierer nicht, aber macht mich in einigen Bereich durchaus effizienter.
Aber worum es mir eigentlich ging ist, dass der Artikel maschinelles Lernen mit den falschen Argumenten jetzt schon abschreibt.
¿Wo schreibt der Artikel maschinelles Lernen ab? Nach meinem Verständnis schreibt es den Hype, dass ChatGPT und Co alles könne und immer recht haben, ab, und weist darauf hin, dass man es nur dafür einsetzen sollte, wofür es was taugt, und dies dann auch angibt.
dass ChatGPT diese Bibliotheken aus zB Javascript kennt, mein Problem aber zB in GoLang ist, ChatGPT “übersetzt” dann die Dokumentation von der Javascript Bibliothek
Klingt eigentlich genau wie der Junior-Dev, dem man Google wegnimmt und zu einer Antwort nötigt.
Wäre das gleiche wie einem Handwerker den Hammer wegnehmen und ihn bitten einen Nagel rein zu schlagen. Mir ist schon klar, was Du meinst, aber Google ist heutzutage ein essenzielles Werkzeug für Programmierer. Senior-Devs haben zweifellos durch ihre langjährige Erfahrung ein tieferes Wissen, aber ich denke, dass das Nutzen von Ressourcen wie Google und mittlerweile auch ChatGPT auch eine wichtige Fähigkeit ist.
Puh, also ich hab ChatGPT jetzt schon öfter versucht als Hilfestellung fürs programmieren zu benutzen und es kam immer Bullshit raus. Der hat immer irgendwelche Bibliotheken und Parameter erfunden die so wirken als wären sie die genaue Wunderwaffe für mein Problem. Das Problem ist dann, dass ChatGPT diese Bibliotheken aus zB Javascript kennt, mein Problem aber zB in GoLang ist, ChatGPT “übersetzt” dann die Dokumentation von der Javascript Bibliothek so dass sie aussieht als wäre sie Go.
Ich sehe großes Potenzial in ChatGPT wenn man es richtig einsetzt. Man kann es super nutzen um zB seine Texte umschreiben zu lassen. ChatGPT interpretiert dann den Text wie es ihn versteht und wenn die neue Variante von ChatGPT Fehler enthält, kann man gut daraus schließen wo der Ursprungstext Interpretationsspielraum bietet und falsch verstanden werden kann. Auch für schnelle Businessmails ist das gut. Aber in meinen Augen nicht fürs Programmieren
Ich habe das Problem kaum, aber ich nutze GPT 4 seit verfügbar und gehe recht konservativ an die Sache ran. Immer nur ein, zwei Probleme auf einmal, dann schrittweise erweitern, überschaubarer Kontext, Handkorrektur wenn notwendig, dann meist neuer Chat um den alten Kontext mit Fehlern nicht drin zu behalten. Die API ist super, da kann man direkt die Antworten editieren, dann kann man das sparen. Und natürlich proaktiv auf Fehler hinweisen, in vielen Fällen reicht das, insbesondere mit Fehlermeldungen, aber wenn nicht, sollte man genug Ahnung haben, um es geradezurücken.
Größere Projekte passen halt nicht in den Kontext oder es sind einfach zu viele Infos. Ich behandle das Ding so ähnlich wie einen brillianten, aber absolut unerfahrenen Azubi. Einfache Arbeiten mit wenig Domänenwissen abgeben, Ergebnisse prüfen, Feedback geben, nicht zu viel erwarten und über schnelle Erfolge freuen weil nicht selbstverständlich. Selbst damit spare ich oft mehrere Stunden am Stück.
Das ist doch genau was OP mitunter meinte. Es geht nicht um den ist-Zustand, sondern um den Weg, der hier geebnet wird und der irgendwann unser aller Leben beeinflussen wird.
OP hat aber den Ist-Zustand bei seinem Programmierbeispiel beschrieben und darauf bin ich eingegangen :) zumindest für meine Anwendungsfälle ist es aktuell eher problematisch als hilfreich
Ah also wie bei der Forschung an der Fusionskraft. Hab ich verstanden.
Guck was schon alles nutzloses möglich ist, in 5 Jahren revulotioniert es die Welt.
Maschinelles Lernen wird in der Medizin schon regelmäßig eingesetzt, zB zur Tumorerkennung auf CT-Bildern. Das kann man natürlich nutzlos nennen, aber naja…
Wirklich? In welcher Klinik wird das im routine Diagnostikverfahren angewandt?
https://healthitanalytics.com/news/one-third-of-orgs-use-artificial-intelligence-in-medical-imaging https://newsnetwork.mayoclinic.org/discussion/using-ai-in-radiology-clinical-practice/
Es gibt auch kommerziell erhältliche AI Pakete, zB von Philips und Siemens: https://www.siemens-healthineers.com/digital-health-solutions/ai-rad-companion
Hm okay, aus Deutschland lese ich eher Nachrichten wie: Oh Gott niemand hat die Website von ChatGPT geöffnet, was kommt jetzt auf uns zu. Jedenfalls in den Nachrichten.
Schon GitHub Copilot probiert? Das steigert wirklich die Produktivität, einfach weil es ganze Blöcke an Boilerplate automatisch und angepasst vorschlagen kann.
Ich benutze es gerade fürs Programmieren. Kleine Konstrukte, keine kompletten Programme, schreibt es mir relativ zuverlässig und es sind meist nur Kleinigkeiten, die ich korrigieren muss. Oder solche Sachen, wie etwas verzwicktere regular expressions inkl. dem Drumherum, wie dem genauen Verwerten der Ergebnisse, kriegt es gut hin. Gerade das ist auch etwas, was immer etwas umständlich zu googeln ist. ChatGPT ersetzt mich als Programmierer nicht, aber macht mich in einigen Bereich durchaus effizienter.
Aber worum es mir eigentlich ging ist, dass der Artikel maschinelles Lernen mit den falschen Argumenten jetzt schon abschreibt.
¿Wo schreibt der Artikel maschinelles Lernen ab? Nach meinem Verständnis schreibt es den Hype, dass ChatGPT und Co alles könne und immer recht haben, ab, und weist darauf hin, dass man es nur dafür einsetzen sollte, wofür es was taugt, und dies dann auch angibt.
Oder du hast den Fehler noch nicht gefunden weil du dich gefreut hast das dir das jemand abgenommen hat…
Für Regex gibt ja relativ gute Checker, womit das auch schnell überprüfen kann
Klingt eigentlich genau wie der Junior-Dev, dem man Google wegnimmt und zu einer Antwort nötigt.
Wäre das gleiche wie einem Handwerker den Hammer wegnehmen und ihn bitten einen Nagel rein zu schlagen. Mir ist schon klar, was Du meinst, aber Google ist heutzutage ein essenzielles Werkzeug für Programmierer. Senior-Devs haben zweifellos durch ihre langjährige Erfahrung ein tieferes Wissen, aber ich denke, dass das Nutzen von Ressourcen wie Google und mittlerweile auch ChatGPT auch eine wichtige Fähigkeit ist.
naja, dann muss er aber immernoch genau erklären können, wie man einen Chromnagel einschlägt, auch wenn er das noch nie selbst gemacht hat.
Klar, wir sind uns einig. Aber ChatGPT hat halt Google nicht zur Verfügung und kann eher schlecht Transferwissen anwenden.
Unter diesen Voraussetzungen würden Menschen sehr ähnlich performen.