Einloggen
[c] [meta] [fefe]

/c/ – Pufferüberlauf


Antwort erstellen

(≤ 4)



[Zurück]

  • [l] Felix Thu, 17 Oct 2024 17:13:47 GMT Nr. 137398
    JPG 441×411 67.0k
    Ist GPT jetzt unser aller Untergang oder nicht? Felix hatte sich eigentlich wieder beruhigt, aber er hat es sich in den letzten Tagen mal wieder angeschaut und muss zugeben, dass es deutlich besser geworden ist. Anscheinend haben sie jetzt recht naheliegende Sachen drangeflanscht wie eine Art Langzeitgedächtnis und die Fähigkeit, größere Datenmengen zu durchsuchen. Rechnen kann es vielleicht immer noch nicht, aber da steht es dem Menschen in nicht nach - bei mehr als vier Ziffern greift Felix schließlich auch zum Taschenrechner. Es ist auch immer noch keine allwissende Glaskugel, aber es ist ziemlich gut darin, z.B. Video-Transkripte und wissenschaftliche Papiere zusammenzufassen und dann Fragen dazu zu beantworten.

    Sachbearbeiter werden sich warm anziehen müssen. Juristen auch. Letztere können sich vielleicht noch retten, indem sie den Einsatz in ihrem Bereich einfach rechtzeitig noch verbieten. Programmierer sind derzeit noch sicher, weil GPT (noch) nicht richtig inzu Logik kann, auf der anderen Seite wird es vielen Kot in Zukunft wahrscheinlich gar nicht mehr geben, weil man einfach nur noch GPT Instruktionen in natürlicher Sprache erteilen wird. GPT wird gar nichts kotieren müssen, weil es den Kot in vielen Fällen einfach komplett ersetzt.
  • [l] Felix Fri, 18 Oct 2024 11:36:43 GMT Nr. 137463
    Kommt auf die Anforderungen an Genauigkeit im jeweiligen Berufsfeld an. Juristen sollten da fein sein, weil ein falscher Baustein regelmäßig eine Argumentationskette zum Einsturz bringt. Sachbearbeiter im Risikomanagement gehen vermutlich auch nicht so schnell weg. PR-Bullshitter, bei denen es auf eine Lüge mehr oder weniger nicht ankommt, sind ja häufig schon wegrationalisiert. Journalisten werden es auch schwer haben, sich zu rechtfertigen.

    Die meisten Programmierer frickeln an irgendwelchen proprietären Backends für Geschäftsprozesse rum. Die sind sicher, weil es dafür keine Trainingsdaten gibt. Und diese Prozesse wird auch niemand durch LLMs austauschen.

    Das größte Problem aus Arbeitgebersicht ist, dass die Dinger nicht mit der Zeit dazulernen. Die können eigentlich nur Bürojobs ohne jegliche Einarbeitungszeit übernehmen. Und da gibt es gar nicht so viel.
  • [l] Felix Wed, 23 Oct 2024 13:17:14 GMT Nr. 137890
    >>137463
    >Das größte Problem aus Arbeitgebersicht ist, dass die Dinger nicht mit der Zeit dazulernen. Die können eigentlich nur Bürojobs ohne jegliche Einarbeitungszeit übernehmen. Und da gibt es gar nicht so viel.
    Das stimmt so nicht. Das P in GPT steht ja für pre-trained. Im Auslieferungszustand hat GPT bereits ein grundlegendes Verständnis für Sprache und kann Beziehungen und Zusammenhänge erfassen, dazu kommt noch ein bisschen Allgemeinwissen über die Welt. Das heißt aber nicht, dass GPT nichts mehr dazulernen kann. Du musst ihm halt nur die Informationen geben. Da gibt es inzischen Möglichkeiten, du kannst da z.B. Dateien hochladen und er verwurstet die dann irgendwie.

    Du könntest zum Beispiel die Dokumentation einer Software hochladen und dann Fragen dazu stellen, z.B. "Welche Klasse verwende ich für Anwendungsfall X". Du kannst auch URLs verlinken z.B. von längeren Forenthreads und GPT dann auffordern, den Inhalt zusammenzufassen. Er scraped dann den Faden und fasst ihn zusammen. Das funktioniert alles bereits jetzt schon.

    Ich habe das selbst schon einige Male verwendet, um mir das Elfenbeinturmgeschwurbel aus wissenschaftlichen Papieren in einfacher Sprache zusammenfassen zu lassen, oder Transkripte von Youtube-Videos, die ich mir nicht in voller Länge anschauen wollte. Hat bisher immer sehr gut funktioniert. Aber es ist eben wirklich essenziell, dass du das Material vorher hochlädst. Wenn du GPT einfach als magische Glaskugel verwendest, so wie viele Leute, dann gibt es eben unsinnige Antworten. Du musst ihm schon die Informationen liefern, die es braucht.

    Deswegen denke ich mir, dass Juristen einige Probleme bekommen könnten, denn – ich bin kein Jurist – ich denke mir, dass deren Arbeit hauptsächlich darin besteht, Präzedenzfälle und Gesetze herauszusuchen. Wenn ich mir jetzt vorstelle, dass man einfach das ganze BGB (zum Beispiel) und alle Gerichtsentscheidungen bei GPT hochlädt, dann könnte es schon eng werden.
  • [l] Felix Wed, 23 Oct 2024 16:48:30 GMT Nr. 137905
    >>137890
    >könnte es eng werden
    Quatsch. Das ist typisch-deutsche Bedenkenträgerei. LLMs können Staatsanwälte, Rechtsanwälte und Richter ersetzen. Man muss nur die richtigen Informationen füttern.

    > A-aber das wird nicht immer perfekt sein!!einself

    Und wenn schon. Im Durchschnittsfall immernoch besser als Menschen, die noch viel mehr Fehler machen.

    Sieh es ein: ChatGPT hat einen IQ deutlich über 150. Nur absolute Top-Anwälte könnten da überhaupt eine Chance haben, mitzuhalten. Wie bei den Programmierern halt auch. Der dumm-behinderte Autistenfrickelmongo und der Pipapo-Provinzanwalt können sich jedenfalls schonmal beim Arbeitsamt melden, vielleicht nimmt sie ja einer als Regaleinräumer, lol.
  • [l] Felix Wed, 23 Oct 2024 17:22:08 GMT Nr. 137909
    >>137905
    >Quatsch. Das ist typisch-deutsche Bedenkenträgerei. LLMs können Staatsanwälte, Rechtsanwälte und Richter ersetzen.
    Ich meinte, dass es damit eng werden könnte für ebenjene Personen.
  • [l] Felix Wed, 23 Oct 2024 20:35:26 GMT Nr. 137935
    >>137890
    >Das heißt aber nicht, dass GPT nichts mehr dazulernen kann. Du musst ihm halt nur die Informationen geben. Da gibt es inzischen Möglichkeiten, du kannst da z.B. Dateien hochladen und er verwurstet die dann irgendwie.
    Was du meinst ist Context, das ist etwas Anderes als Lernen. Context ist begrenzt, reicht für ein kurzes Paper, bei mehreren wird das irgendwann knapp. LLMs können nicht inzu Erfahrung sammeln und eine Tätigkeit durch Wiederholung mit der Zeit immer besser machen. Und das schränkt ihren Einsatz in der Arbeitswelt extrem ein.
    >Deswegen denke ich mir, dass Juristen einige Probleme bekommen könnten, denn – ich bin kein Jurist – ich denke mir, dass deren Arbeit hauptsächlich darin besteht, Präzedenzfälle und Gesetze herauszusuchen.
    Das hat man beim Aufkommen von juristischen Datenbanken auch schon gesagt, ist offensichtlich nicht passiert. Felix sagt ja nicht, dass die Dinger nutzlos sind, aber zum Wegrationalisieren von Leuten gehört etwas mehr.
  • [l] Felix Wed, 23 Oct 2024 21:04:27 GMT Nr. 137938
    >>137935
    Ich bin mir nicht sicher, ob das "nur" Context ist. Die maximale Eingabelänge des regulären Prompts gilt für hochgeladene Dateien beispielsweise nicht. Irgendwo hatte ich gelesen, dass OpenAI an einer eingebauten Suchfunktion für seine KI arbeitet, mit dem die KI dann in einem virtuellen Dateisystem nach bestimmten Schlagworten greppen kann. Einen Python-Interpreter, den die KI benutzen kann, gibt es als Experimentalversion auch bereits, ebenso sind Linux-Container in Arbeit. Das heißt, die KI würde dann nicht mehr einfach direkt Antworten generieren, sondern könnte auch entsprechende Shell-Befehle generieren und die Ausgaben davon lesen. Es wird auch wird gemunkelt, dass OpenAI an einer eigenen Suchmaschine arbeitet. Genau wie ein Mensch mit Rechner und Internet deutlich mächtiger ist als ein Mensch alleine, kann man sich vorstellen, dass auch eine KI mit Rechner und Internet deutlich mächtiger wird.

    Auch ein Mensch weiß schließlich nicht alles auswendig: Du musst nicht alles wissen, du musst nur wissen, wo es steht. Es wird hier mit zweierlei Maß gemessen; an die KI werden Anforderungen gestellt, die man an einen Menschen niemals stellen würde. Und trotzdem schlägt sie sich erstaunlich gut. Ich bin mal gespannt, was passiert, wenn man der KI die gleichen Hilfsmittel gibt, die ein Mensch zur Verfügung hat.

    Mal als Beispiel eine Anekdote: Ich habe letztens zum Test ChatGPT gefragt, wie man Papierfischchen bekämpft (die richtige Antwort kannte ich in dem Fall bereits). Zunächst ohne Vorinformationen. Da kamen dann irgendwelche schrottigen Hausmittel als Antwort, wie man sie aus SEO-Mühlen kennt.

    In einem zweiten Prompt habe ich dann erst ein Paper hochgeladen (PDF relatiert), in dem verschiedene Giftköder getestet wurden. Anschließend dann GPT gefragt, welchen Köder ich verwenden sollte, und es kam prompt die richtige Antwort. Es wusste sogar den Markennamen des entsprechenden Präparats. Die Antwort kannte ich in dem Fall bereits – aber um das Paper selbst zu lesen hätte ich länger gebraucht. Die Antwort von GPT kam in Sekunden.

    In diesem Fall hatte ich natürlich vorher schon im Netz recherchiert, um das entsprechende Paper zu finden. Aber wenn ich mir jetzt vorstelle, GPT hätte Zugriff auf eine Suchmaschine, dann hätte GPT dieses Paper selbst finden können. Es könnte selbstständig eine Suchanfrage generieren, die ersten 20 Treffer inhalieren und dann die Antwort herausdistillieren. Das ist nicht so weit hergeholt.
  • [l] Felix Thu, 24 Oct 2024 17:04:34 GMT Nr. 138059
    Hier aktuelles Beispiel von gerade eben: https://chatgpt.com/share/671a7ca4-9ac8-8008-a491-50d108f1adb3

    Das ist schon ziemlich geil, muss Felix selbst als KI-Skeptiker zugeben. Glaube, Felix wird in Zukunft gar nichts mehr selber lesen. Wozu noch selber lesen, wenn man einfach ChatGPT fragen kann? Geht viel schneller. Felix hätte das gerne als Brausierersteckrein, sodass man auf jeder Seite einen GPT-Assistenten hat, dem man Fragen zur aktuellen Seite stellen kann. Am meisten Zeit kostet es, ChatGPT aufzurufen und die URL reinzukopieren, beziehungsweise – falls nicht abrufbar, so wie in diesem Fall – den Inhalt zu speichern und hochzuladen. Vielleicht gibt es so eine Erweiterung ja sogar schon, muss Felix mal schauen.

    KI-Hasser-Felix ist hiermit dazu aufgefordert, einen Makel zu finden.
  • [l] Felix Fri, 25 Oct 2024 11:08:43 GMT Nr. 138139
    >138059
    > Felix selbst als KI-Skeptiker
    > Glaube, Felix wird in Zukunft gar nichts mehr selber lesen.
    > Felix hätte das gerne als Brausierersteckrein, sodass man auf jeder Seite einen GPT-Assistenten hat
    > KI-Hasser-Felix ist hiermit dazu aufgefordert, einen Makel zu finden.

    Hintere diesem Pfosten steckt doch die KI-Lüftungsmafia.

    Dieser KI-Skeptiker-Felix™ hat letztens versucht via ChatGPT Interviewtranskripte zusammenzufassen. Dabei hat das GPT-Ding ziemlich versagt. Es konnte gut kürzen, aber nicht zusammenfassen. Sprich, wichtige Informationen gingen verloren. Ferner musste Felix jeden Absatz gegenprüfen und war langsamer als wenn er es händisch tat.
  • [l] Felix Fri, 25 Oct 2024 12:55:00 GMT Nr. 138167
    JPG 657×527 50.1k
    >>138139
    Ich vertraue niemandem, der nicht mal Pfosten richtig verelfen kann.
  • [l] Felix Sat, 26 Oct 2024 15:05:27 GMT Nr. 138273
    >>138139
    >>138167
    Zum KI-versagt-beim-Zusammenfassen gab es auch schon was bei Fefe:
    https://blog.fefe.de/?ts=98281f44
  • [l] Felix Sat, 26 Oct 2024 16:41:32 GMT Nr. 138277
    >>138139
    > ja hallo ich bin der spasti-basti cih bin ein behindi kindi das wo nicht chatgpt kann bedienen bitte tut mich ins mongo heim
    Aber gerne, Spasti-Basti. Du kommst ins betreute Wohnen, in die Gruppe von Leonie-Chantalle mit den Schrecklocken!
  • [l] Felix Sat, 26 Oct 2024 16:51:08 GMT Nr. 138278
    JPG 602×406 41.7k
    >>138277
    >in die Gruppe von Leonie-Chantalle mit den Schrecklocken
    Die geile, die
  • [l] Felix Sat, 26 Oct 2024 18:00:24 GMT Nr. 138280
    >>138277
    Uh, da ist ja jemand mett, dass KI nur ein Rohrkrepierer war.
    Jeder, der KI lüftet, findet es nur toll, weil er selbst minderintelligent ist.
  • [l] Felix Sat, 26 Oct 2024 19:54:19 GMT Nr. 138282
    >>138280
    Umgekehrt!
  • [l] Felix Sat, 26 Oct 2024 20:17:11 GMT Nr. 138287
    >>138280
    >Jeder, der KI lüftet, findet es nur toll, weil er selbst minderintelligent ist.
    So nämlich. Lassen sich von den billigen Kunststücken beeindrucken.
    KI ist ein nettes Werkzeug. Oke war alles.
  • [l] Felix Sat, 26 Oct 2024 20:23:29 GMT Nr. 138289
  • [l] Felix Sun, 27 Oct 2024 00:21:04 GMT Nr. 138295


[Zurück]
[c] [meta] [fefe]