Beiträge von diabolusUmarov

    Mahlzeit!

    Ich bin immer mehr von der sinkenden Qualität der KIs verwundert. Gerade ChatGPT und Gemini zeigen immer mehr Qualitätsverlust.

    In der Haupsache verwende ich KIs zum coden. Hauptsächlich zum Debuggen oder um mir Einstiegspunkte neuer Bibliotheken oder ähnliches zu erstellen. Das lief bislang auch immer ganz hervorragend. Gerade bei PHP hat mir das sehr oft geholfen, schnell einen Zugang zu einer Bibliothek zu schaffen oder Tipps und Tricks für eine solche zu bekommen. Schon etliche Ideen konnte ich auf diese Weise schnell umsetzen. Wobei ich auch sagen muss, es hatte bislang immer nur soweit gereicht, dass ich die Richtung gesehen habe oder eben beim Debuggen einen Fehler in grossem Code schnell finden konnte.

    Seit nun gut zwei Wochen merke ich aber, wie die Antworten immer und immer schlechter werden. So hatte ich letzte Woche die Herausforderung, etwas in eines meiner grossen Projekte einzubauen, was ich bislang noch nie gemacht habe. Schon im Laufe der Woche habe ich mich dahingehend von ChatGPT beraten lassen, wie es am einfachsten und stabilsten funktionieren würde. Ich bekam natürlich auch gleich mehrere Bibliotheken vorgeschlagen und Code, wie man diese einbindet und wie leicht das doch ist. Also war der Plan, am Freitag Nachmittag oder Samstag das schnell einzubauen. Ende vom Lied? Ich bin gestern, also Sonntag Abend fast kurz vor Mitternacht fertig geworden.

    Der Ratschlag bezüglich der Bibliothek war sehr gut. Der gezeigte Code fast in jedem Aspekt falsch. Also nichts da mit, wird mal schnell eingebaut.

    Aber gut. So eine KI ist ja auch nur ein Mensch. Also bin ich vorgegangen, wie ich es in den letzten Monaten immer getan habe. Wenn die KI veralteten Mist ausgespuckt hat, habe ich ihm einfach die entsprechenden, neuen Anleitungen verlinkt, dann hat es funktioniert. Dieses Mal hingegen wurden die gezeigten Lösungen immer noch schlechter. Vollkommen unbrauchbar. Trotz der gezeigten Anleitung wurden Funktionen erfunden, Funktionsparameter völlig falsch gesetzt usw.

    Nun gut. Nachdem ChatGPT mich da munter im Stich gelassen hat, hab ich bei Gemini nachgefragt. Ende vom Lied, nutzlos. Auch da wurden mir völlig falsche Vorgehensweisen gezeigt. Da wurden dann Klassen völlig falsch initialisiert mit Parametern, die es gar nicht gibt. Zudem bekam ich immer wieder veralteten Code gezeigt, obwohl ich die neuste Quelle als Referenz angegeben habe.

    Ich hatte also keine Wahl, als mich dann persönlich durch die eher merkwürdige Anleitung und den noch schlechter zu lesenden Code zu quälen.

    Generell kann ich damit leben. KI hat mir mein Leben dahingehend immer nur erleichtert und ich musste mich nie drauf stützen. Aber, während gerade ChatGPT über die Zeit immer besser und präziser wurde, wird es langsam aber sicher immer schlechter. Claude ist hier eine Ausnahmeerscheinung. Aber, die haben ein neues Modell mit freien Nachrichten. Ist das Kontingent aufgebraucht, was überraschend schnell geht, muss man eine Woche warten, bis man wieder ran darf. Wobei ich aber auch sagen muss, Claude ist tatsächlich in der engeren Wahl, dass ich dafür bezahle.

    Es ist aber nicht nur bei Code so. So habe ich mich am Wochenende auch mit ChatGPT über den Starfighter unterhalten. Ich finde das Flugzeug schon immer sehr faszinierend und wollte mir von ChatGPT mal die ganzen Änderungen Der G Version, also der deutschen Version nennen lassen. Beeindruckend, dass der Starfighter in der deutschen Version sogar die AMRAM verwenden konnte. Die gab es damals zwar noch nicht, aber bitte. Auch die IRIS-T nannte mit ChatGPT als Bewaffnung der deutschen Version. Auch lustig, die gab es damals auch noch nicht. Viel weiter habe ich dann auch nicht gelesen.

    Erklären kann ich mir das auch. Ich meine, die neuen Modelle werden ja auch trainiert, erben in der Regel von den Vorgängern usw. Für mich ist hier ganz klar, die kommen langsam aber sicher mit ihren Trainingsdaten durcheinander. Die schöne neue Welt, wo die KI als Helfer in allen Lebenslagen zur Seite steht, scheint gerade schwer ins Wanken zu kommen.

    Wer aber mal Richtig Spass haben will, der nutzt dieses KI Teil aus WhatsApp. Was man da einen Schwachsinn zu lesen bekommt, ist wahrlich beeindruckend.

    Gut, Terminal sehe ich jetzt weniger als Anwendung. Aber bei Terminator oder Tilix kommt es durchaus auch vor, dass ich den im Vollbild nutze und dann darin mehrere Terminals offen habe. Lohnt sich bei mir also auch kein Tiling. Anstatt eines einigen riesigen Monitor habe ich drei Monitore angeschlossen, was es mir einfacher macht, Anwendungen zu verteilen. Auf einem einzigen Monitor kann das natürlich dann durchaus sinnvoll sein, mehrere Anwendungen auf einer Arbeitsfläche zu nutzen. Da könnte ich mir auch vorstellen, dass Tiling bei mir einen gewissen Reiz haben könnte.

    Da bin ich ganz bei dir. Es gibt so viele Spiele mit grafischem Feuerwerk und hinreichend furchbarer Story. Ich habe in letzter Zeit einige sehr gute Spiele gespielt. Metal Gear Solid, Silent Hill... Die Grafik ist aus heutiger Sicht natürlich lahm. Aber was eine Story. Was für eine Bindung an den Protagonisten, was eine Story-Entwicklung. Sowas findet man heute nicht mehr so oft.

    Mahlzeit!

    Ich entwickle ja seit längerem Spiele für das AmigaOS. Ist zwar noch keines fertig, aber ich bastel je nach Zeit immer dran herum. Warum für das AmigaOS? Weil es limitiert ist. 8MB Chip-Ram, maximal 512 MB Fast-Ram, da muss man eben Haushalten. Zumal ich nur für RTG hochauflösend entwickle. Also FulHD muss schon sein. Ist man limitiert und will trotzdem hoch hinaus bleibt nur eins. Optimieren und tricksen.

    Das ist eine Tugend, die heute eigentlich schwer verloren gegangen ist. Warum optimieren, wenn jedes Jahr eine neue Grafikkartengeneration raus kommt?

    In der Grafikkarten und Speichersituation sehe ich einen kleinen Hoffnungsschimmer. Wenn das so bleibt und Entwickler nicht drauf bauen können, dass die Kundschaft sich für jedes Spiel neue Hardware kauft, müssen sie sich was einfallen lassen und wer weiss, vielleicht führt das ja dazu, dass gerade Spieleentwickler mal ihre grauen Zellen anstrengen. Das wäre doch super.

    Selbst habe ich keine Erfahrung mit den Karten. Ein Bekannter hat sich vor einiger Zeit eine geholt, wo die noch unter Windows nicht gerade gut abgeschnitten haben. Der spielt eigentlich auch nur Farming Simulator und meinte am Anfang, die wäre ganz okay, aber jetzt kein Meilenstein. Irgendwann kam ein Update und das hat die FPS anscheinend massiv befeuert. Kurz darauf habe ich dann auch Berichte aus der Windows Welt gehört. Intel hat da anscheinend den Treiber massiv optimiert und verbessert und das muss die Karten ordentlich befeuern.

    Was er aber direkt gesagt hat, einstecken und läuft. Also, was die Unterstützung von Arch aus angeht, scheinen die wirklich zuverlässig zu sein.

    Es kommt wohl auch immer auf den Anwendungsfall an. Ich bin mit meiner RTX 2060 Super sehr zufrieden. Auch wenn Schedule I seit dem letzten Update an FPS böse in den Keller ist. Das liegt wohl aber eher am Spiel, denn zum Beispiel Supermarkt Simulator fetzt mit über 140 FPS, auch wenn dutzende Leute im Laden sind. Auch Spiele wie Prey, Starfield, Once Human haben Frameraten über 100. Mit allem an.

    Wenn ich dann aber diese High-End-Pro-Super-Mega Gamer sehe, die 4K mit 4 Mio FPS mit allen Details brauchen, die werden da wohl nicht glücklich.

    Ja, geht auf jeden Fall. Bevor ich dieses Mainboard bekommen habe, was keine integrierte Grafikkarte hat, habe ich das immer so gemacht. Ging problemlos ohne irgendwas gross einstellen zu müssen. Mit der 1050ti hat das auch ein bisschen Leistung gebracht beim aufnehmen und streamen.

    Amiga E hat auch durchaus viele Vorteile, wenn man rein nur auf dem Amiga programmiert. Einige Compiler werden da ja auch bis heute gepflegt, was ich echt toll finde. Das war damals für mich aber so wie heute Rust. Eine super Idee, aber irgendwie fehlt mir der Zug, mich da wirklich einzuarbeiten.

    Amiga E habe ich auch mal versucht, aber keinen wirklichen Vorteil gegenüber C gesehen. Ich bin auch immer noch ein riesiger Fan von C und wenn ich zeitlich genug Spielraum habe, entwickle ich immer noch am liebsten in puren C. Wobei man unter Linux, wenn man mit GUI wie Qt arbeitet, ja nicht um C++ rum kommt. Wobei ich nichts gegen C++ sagen will, aber ich liebe diese Freiheit in C.

    Ich denke mal, hier geht es nicht um Probleme im System selbst. Arch verlangt eben, dass man alles von Hand installiert und einrichtet, was Manjaro, EndeavourOS und so einem eben alles abnimmt. Deshalb eignet sich das pure Arch auch nicht zum Hopping. Das kann man nicht einfach mal nebenbei auf den Rechner werfen und es läuft sofort alles. Wahrscheinlich auch ein Grund, warum Gentoo nie bei den Hoppern auftaucht.

    Das soll jetzt aber nicht gegen das Distro-Hopping sprechen.

    Okay. Dafür müsste es eine Guest-CD oder so etwas geben. Wenn du die installierst, solltest du in Vollbild arbeiten können, ohne das die Mouse festgehalten wird. Zumindest erinnere ich mich daran, dass es bei Windows 7 gut funktioniert hat.

    Ich benutze dafür qemu mit Spice. Läuft super. Traue mich nur nicht, dieses Ding zu starten. Ist schon ein paar Monate her und das wird übel mit den Updates.