Beiträge von diabolusUmarov

    aber muss das dann pesönlich werden?

    Persönlich ist eben sehr einfach. Nachdem ich 4 Kinder durch den Kindergarten und die Grundschule gebracht habe, kenne ich das Verhalten sehr gut. Es gibt immer einer, der etwas besser wissen will, der der Schlauste sein will usw. Aber, nach einer sehr treffenden Weisheit von Bud Spencer: "Es gibt immer einen der mehr drauf hat als du!". Bei Kindern kommen dann auch gerne mal die Fäuste ins Spiel, wenn man dem gegenüber nicht mehr bei kommt. Im Laufe des Lebens lernen aber die Meisten, dass man eben nicht immer und überall der Schlauste oder Stärkste oder Schönste ist. Dann ist es eben so. Es gibt aber immer noch die, welche dann trotzdem persönlich werden. Am Besten finde ich dann ja wenn sie mit Rechtschreibung kommen. Nachdem jedes ihrer Argumente nicht gezogen hat, kritisiert man die Rechtschreibung und ist damit dann sofort der Überlegene. Oder eben, man greift jemanden persönlich an mit sehr blumigen Metaphern. Das ist dann immer das Eingeständnis, dass man nicht mehr gegen die Argumente des Anderen ankommt.

    Leider trifft man, dank dem Internet, heute sehr schnell auf solche Personen, welche sich nach aus der Grundschulzeit weiterentwickelt haben. Deine Videos und die einhergehenden Kritiken sind ja das beste Beispiel dafür. Wenn dich jemand angeht, von wegen du wärst die grösste Pfeife, dann heisst das ja automatisch, er ist die grössere Pfeife, sonst hätte er dich ja nicht um Rat fragen müssen. Es ist hier ja auch schon gefallen. Du hast sehr viel auf die Beine gestellt. Von den Videos über die Abos, die Views, die Daumen, die Kommentare bis hin zu einsatzfähigen ISOs und Skripten. Wie viele dieser Kritiker könnten es dir denn nach machen? Ich bin jetzt mit Sicherheit kein Anfänger mehr zum Thema Linux und Skripte. Aber um deinen Level zu erreichen müsste ich mich echt anstrengen. Wenn diese Kritiker dich dann so anfahren, wo sind deren Kanäle, deren ISOs, deren Skripte? Welche Eigenleistung können sie denn der deinen entgegensetzen, um überhaupt kritikfähig zu sein?

    Als jemand, der schon so einige Erfahrungen auch aus der Gentoo-Welt aufwarten darf, der hier und da schon ein Progrämmlein gezimmert hat usw. kann ich nur sagen, du musst dich mit deiner Leistung beim aller besten Willen nicht verstecken. Zumal, wenn man deine Videos und Beiträge hier im Forum betrachtet, sieht man die doch steile Lernkurve, die du hier hinlegst. Du entwickelst dich stetig weiter und das verdient absoluten Respekt. Meinen hast du auf jeden Fall. Es geht da ja auch nicht darum, ob ich das auch könnte oder jemand unserer Kameraden hier es vielleicht auch besser kann. Du tust es und es funktioniert. Du treibst eine Distribution, welche absolut ihre Daseinsberechtigung hat (im Gegensatz zu vielen anderen), von einer komplizierten Installation hin zu etwas, was man bootet, installiert und dann verwenden kann. Mit allen Vorteilen dieser Distribution und dem Wegfall der Meisten Stolpersteine. Bevor dich da jemand kritisieren oder runtermachen darf, muss er, in meinen Augen, erst einmal eine Eigenleistung vorweisen, die mit deiner mithalten kann. Ansonsten gehören solche Personen für mich in die Bubble der Hater.

    wenn ich etwas schlecht mache oder etwas nicht funktioniert, gut dann probier ich das besser zu machen, aber das ständige wie doof ich bin und ich kann ja nicht mal helfen oder ich schreibe nicht zurück - was ja sogar bei einigen stimmt - ich bin die größte Pfeife usw.

    Das scheint ein neues Hobby zu sein, denn leider kenne ich das auch. Nie öffentlich in den Kommentaren oder so, sondern immer schön in Mails mit E-Mail Adressen von irgendwelchen kostenlosen Anbietern. Alleine die ph.h Datei aus meinen Mikrocontroller-Videos. Was durfte ich mir da schon Kritik anhören, obwohl ich eigentlich immer erkläre, dass diese Datei nur existiert, damit ich den SIDD und das Passwort von meinem W-Lan nicht zeigen muss. Ich zeige auch immer wieder, wie man die Funktionen in seinem eigenen Projekt dann füttert. Aber nein. Es ist manchmal schon interessant, welche Dinge man da an den Kopf geworfen kriegt.

    Mein lieber Pinguin, aus meiner Sicht brauchst du auf solche Leute nichts zu geben. Was du in deine ISOs und Skripte ein Herzblut rein steckst, alleine dafür hast du grossen Respekt verdient. Ich schätze deine Arbeit sehr und bin absolut der Meinung, alleine durch deine ISOs machst du Void für viele Nutzer schon deutlich freundlicher. Du entschärfst Fallstricke, baust schon alles ein, was man als Nutzer voraussetzt und es ist alles einfach gehalten. Gut, die Partitionen sind immer noch nicht gut gelöst, aber das liegt nicht an dir, sondern am Installer. Für mich bist du eine grosse Bereicherung zum Thema Void.

    Was deine Skript angeht, da habe ich schon meine Vorbereitungen für Videos getroffen. Das dürften aber mal wieder etwas längere Videos werden und da eines meiner Projekte in der finalen Phase vor dem Release ist, frisst mir das viel an Zeit weg. Aber, die Videos kommen, darauf mein Ehrenwort.

    Wenn du erst einmal mit Void-Videos kürzer treten willst, kann ich deine Entscheidung nachvollziehen. Ist aber kein Grund zum trauern. Deine Videos sind eigentlich immer toll, da du diesen ganz persönlichen Humor einbaust und ich mir dann doch wieder ein Videos zu einer Debian basierten Distribution anschaue. Natürlich gibt es auch den Daumen hoch. Verdienst du!

    Ich sehe da auch keinen Grund für eine Diskussion. In diesem Thema geht es darum, dass Void durchaus auch einen Schaden durch ein Update erleiden kann und das man dieses recht simpel fixen kann. Da es einen Hinweis gab, dass dieser Fix wie ein Profi-Weg anmutet, habe ich die drei simplen Schritte gezeigt, die dafür notwendig sind waren. Da ich mit arch-chroot anscheinend für Verwirrung gesorgt habe, habe ich einfach gezeigt, was arch-chroot eigentlich macht und das es nicht auf Arch-Verlötet ist.

    Da ich der Meinung bin, dass wir hier nicht mehr in der Grundschule sind, habe ich wirklich nur das geschrieben was arch-chroot macht. Ich unterstelle den Mitgliedern des Forums damit einfach, dass sie den Kontext verstehen und ich aus diesem Grund nicht noch einmal die ganze Bibel schreiben muss.

    Oder anders ausgedrückt, die 3 genannten Schritte sind mit dem Arch-Installationsmedium absolut ausreichend, um nach einem gecrashten Update das System zu fixen. Wobei man noch Schritt 0 hinzufügen könnte.

    Code
    loadkeys de-latin1

    Um die deutsche Tastatur einzustellen.

    Natürlich hätte ich es auch ergänzen können

    Code
    1. loadkeys de-latin1
    2. mount /dev/sda3 /mnt (bzw. die Partiotion, auf der sich das OS befindet)
    3. arch-chroot /mnt
    4. topgrade -y (oder xbps-install -Su)
    5. exit
    6. umount -a
    7. reboot

    Verwendet man ein anderes Installationsmeditum oder eine Live-ISO fällt 1. unter Umständen einfach weg und anstatt 3. verwendet man

    Code
    mount --bind /dev /mnt/dev
    mount --bind /proc /mnt/proc
    mount --bind /sys /mnt/sys
    chroot /mnt

    Ja. Ich verwende für so etwas das Installationsmedium von Arch. Welches man benutzt ist ja im Endeffekt egal. Man könnte auch eine Live-ISO von Mint nehmen oder was auch immer. Ich bevorzuge eben Arch, da arch-chroot an Board ist. Hat etwas mit Faulheit zu tun.

    Der "normale" Weg wäre ja

    Code
    mount --bind /dev /mnt/dev
    mount --bind /proc /mnt/proc
    mount --bind /sys /mnt/sys
    chroot /mnt

    Das mounten umgehe ich eben mit arch-chroot. Das macht das alles automatisch gleich mit.

    das Problem beim Internetausfall war vermutlich der Zeitpunkt

    Auf jeden Fall. Wahrscheinlich eine Chance von 0,x%. Aber es kommt eben doch mal vor, im ungünstigsten Fall. Macht aber, wie schon gesagt, letzten Endes jedes OS kaputt.

    und das repariert dann die kaputten Dateien wieder - ich finde das sogar gut!

    Absolut. Wie ja schon geschrieben, der Aufwand zum fixen war in meinen Augen gering und setzt schlussendlich auch kein Profi-Wissen voraus. Eine Installation von Hand zeigt schon alle notwendigen Schritte dafür in der Regel. Aber, ich musste nichts basteln, irgendwo was von Hand arbeiten usw. Einfach mit chroot einloggen, wie gewohnt ein Update durchziehen, fertig. Für mich hat das auch wieder die Robustheit von Void bestätigt.

    Ich kann da jetzt mal wieder eher vermuten. Aber es scheint mir, als wäre das BIOS vom Rechner mit dem ACPI nicht ganz so sorgfältig, wie es für den Kernel vom Ventoy-Stick geprüft wird.

    Was ist das für ein Gerät? Ich würde mal auf einen Laptop tippen. Schau mal im BIOS, was da für Einstellmöglichkeiten zu ACPI gibt.

    Da bin ich bei dir. Wenn die Lösung eines solchen Problems ja doch sehr simpel ist, zumindest empfand ich den Weg jetzt nicht als besonders aufwendig, sind solche Mechanismen irgendwie op. Das wäre auch ein Grund gewesen, ein Zurückrollen mit Timeshift oder so zu nutzen. Aber selbst das wirkt irgendwie übertrieben.

    Es liegt wohl am Zeitpunkt, wann da etwas schief läuft. Korrekt, jedes Betriebssystem kann ins Schwitzen geraten, wenn beim Update die Internetverbindung die Biege macht. Das ist und bleibt ein kritischer Punkt bei der ganzen Spielerei. Früher hatte man ein Installations/Update-Medium, damit war man relativ sicher.

    Und ich will damit Void in keinster Weise in Misskredit bringen. Ich wollte nur auch mal aufzeigen, dass auch Void in der Hinsicht nicht Unfallsicher ist. Wie die Titanic. Von wegen unsinkbar. Wenn die richtigen Umstände eintreten, geht alles kaputt.

    Mahlzeit!

    Ich habe gestern Abend mein Void angeworfen, da ich damit etwas arbeiten wollte. Aus Gewohnheit habe ich als erstes Topgrade gestartet und mitten drin meinte Vodafone, dass mein Internet eine Pause braucht. Genervt habe ich also Void beendet, meinen Computer ausgeschaltet und bin ins Bett. Heute Morgen wollte ich dann meine Arbeit wieder aufnehmen, Void bleibt hängen während dem Boot.

    Fehlersuche war nicht wirklich angesagt. Hängen gebliebenes Update, da muss also das Problem liegen. Mit dem Installationsmedium gebootet, Platte von void gemountet, chroot rein und noch einmal topgrade. Nachdem das durchgelaufen ist, liess sich Void auch wieder normal booten.

    Das ist dann jetzt das erste Mal, dass Void mich hat hängen lassen. Eigentlich nicht schlecht, dafür dass es in der Regel jeden Tag im Einsatz ist, ich immer die Updates mache und noch nie was schief gelaufen ist. Das ist auch keine Kritik an Void. Scheisse passiert.

    aber ist dies eigentlich ok ?!

    Aus meiner Sicht nein. Mit einer der grössten Stärken unixoider Betriebssysteme ist für mich, hast du kein Passwort, kannst du nichts kaputt machen. Würde sich bei mir jemand an den PC setzen, könnte er nicht einfach etwas installieren, da er selbst bei direktem Zugriff das Passwort nicht hat. Weder meins, noch das von root.

    Das ist ja das, was ich bei Windows so witzig finde. Dort besteht die Sicherheit vor ungewünschten Installationen in der Abfrage, ob das Programm auf die Festplatte schreiben darf. Das wird aber nicht mit einem Passwort genehmigt, sondern mit einem Klick auf ja.

    Generell sind wir (je nach Alter) eigentlich unfassbar privilegiert.

    Da gebe ich dir Recht und das ist irgendwo auch ein wenig erschreckend. Ich entwickle ja verschiedene Projekte mit einem Partner zusammen und bin Design-Legastheniker. Wenn ich so ein Projekt entwickle, kann es zwar die ihm gestellten Aufgaben allesamt gut bis sehr gut bewältigen (Angaben der Nutzer, nicht von mir), aber das Design wäre immer das Gleiche. Standard Bootstrap. Also weiss, blau usw. Für Design fehlt mir einfach jeglicher Sinn.

    Bevor meine Tochter eingestiegen ist, habe ich deshalb mit einem studierten Informatiker zusammengearbeitet. Des sollte das Design aufpeppen. Während einer Videokonferenz fragt der dann, warum ich hier dies und da das gemacht hätte. Hab ich ihm erklärt und ich muss dazu sagen, der hat definitiv Ahnung und mir etliche Möglichkeiten gezeigt, die ich nicht auf dem Schirm hatte. Umgekehrt konnte ich ihm aber auch vieles Zeigen. Alleine, warum ich in sehr vielen Fällen statt foreach dann doch lieber eine for-Schleife nutze. Das Gespräch ging dann gute zwei Stunden und wie wir dann festgestellt haben, meine rudimentäre, alte Vorgehensweise erleichtert das Leben in vielen Fällen enorm. Während er bei vielen Dingen mit Workarounds arbeitet, gehe ich den klassischen Weg und erspare mir damit, auch wenn es auf den ersten Blick vielleicht anders aussieht, dann doch jede Menge Arbeit.

    Mittlerweile kommt es sogar vor, dass der mich um Rat bei einem Problem fragt. Ich habe nie eine Ausbildung dazu gemacht, wenn man mal die beiden BASIC Computerkurse der VHS nicht berücksichtigt, da ich dort dem Lehrer ganz gerne mal gezeigt habe, wie man seine Aufgabenstellung lösen kann, ohne seine ganzen Umwege zu benutzen.

    Auch in diversen Foren zum Thema programmieren konnte ich, als Self-Learning-Nerd, oftmals den professionellen Entwicklern unter die Arme greifen. Nicht, weil die weniger intelligent oder so wären, sondern weil man es heute nicht mehr so lernt wie damals. Wie ja geschrieben. Ich komme noch aus der C-Welt und musste mich deshalb mit Speicherverwaltung und Co auseinandersetzen. Heute lernt man eigentlich nur noch C++, C# oder Java. Rust und Go lassen wir mal weg, in den Kreisen bewege ich mich nicht und kann 0 dazu sagen.

    Das ist in der heutigen Zeit auch absolut legitim. Es ist genug Speicher vorhanden, die Grafikkarten geben genug her und optimieren hat nicht mehr den Stellenwert von damals.

    Um nicht wieder ein Thema zu entführen, ich die Antwort von tom_www aber durchaus kommentieren möchte, mache ich das hier.

    Zitat

    Früher fragten sich viele Menschen bei einer neuen Computer-Entwicklung, wofür man den vielen Speicher benötigt.
    Dann fragten sich viele Menschen, wofür man so grosse Festplatten benötigt.
    Dann fragten sich viele Menschen, wofür man so extreme Grafikkarten benötigt.
    Heute fragen sich viele Menschen, wofür man so viel Down- und Upload-Speed (Glasfaser) benötigt.

    Wofür man so viel Speicher benötigt ist da schon eine wirklich tolle Frage. Ja, früher fragten sich das wirklich viele. Die Meisten meiner Freunde hatten 8, 16, vielleicht mal 32 MB in ihren Rechnern. Bei PCs immer etwas mehr wie beim Amiga, da Windows schon immer ein dickes Schiff war. Aber darum soll es ja jetzt nicht so unbedingt gehen.

    Was mir über die Jahre immer wieder aufgefallen ist, bezieht sich auf die "Skills" der Entwickler selbst. Wer damals was auf sich hielt, hat in C programmiert. Das hatte auch einen simplen Grund. Damals war die Taktfrequenz überschaubar, der Speicher knapp und nicht jeder wollte sich Assembler antun. Wobei Assembler in meinen Augen schon eine Kunstform ist und keiner kennt seinen Computer besser als die, die ihn damit programmieren können. Aber eben, allgemein ist es echt ein Krampf. Wer damit noch nichts zu tun hatte ein Beispiel vom Arduino. Um da mit C++ zum Beispiel eine LED zum Leuchten zu bringen reicht die Funktion digital_write(D0, HIGH);. Mit Assembler bekäme ich das jetzt so aus dem Stehgreif gar nicht direkt hin, da an dort ja jeden einzelnen Schritt angeben muss und das ist ein ganzer Berg voll. Tatsächlich schont das aber Speicher.

    Gut. Die logische Wahl war dann eben C. Nicht C++, C# oder was auch immer. Einfach C. Auch nicht immer ganz trivial im Vergleich zu C++, aber die Macht dahinter ist sensationell. Wer da was auf sich hält, wägt schon bei der Entwicklung ab, ob er da jetzt eine Zahl als int deklariert oder als float oder double. Denn schon die Initialisierung der Variable beeinflusst den Speicherverbrauch. Warum also eine grosse Fliesskommazahl deklarieren, wenn man nur einen kleinen Wert ohne Komma braucht? Zeichenketten sind dann noch einmal ein ganz anderes Kaliber. Die kann an statisch anlegen zum Beispiel char text[256]; und kann dann dort beliebig 256 Zeichen rein speichern. Das heisst aber auch, direkt nach der Deklaration sind 256 Byte im Speicher belegt. Auch wenn man zum Beispiel da nur "Hallo" rein speichert. Wer in der Hinsicht dann speichereffizient arbeiten will, der macht aus text einen Zeiger und weist dem dann den Speicher zu, der benötigt wird. Wenn mehr dann eben mehr, wenn weniger wird Speicher wieder freigegeben. Aber, man muss das auch wirklich sauber machen, sonst fragmentiert man sich den Speicher und im schlimmsten Fall schreibt das Programm oder gar ein anderes Programm dann was in belegten oder falsch freigegebenen Speicher und es gibt ein Crash.

    Aber, hier lag und liegt für mich einfach die Magie. Du kannst dein Programm bis aufs letzte Byte optimieren und das macht es eben klein.

    Diese Fähigkeit haben heutige Entwickler aber in aller Regel verloren oder nutzen sie nicht mehr aus Zeitdruck. In C++ deklariert man für eine Zeichenkette einfach ein String und kann dann damit herum spielen. Alles in der Hoffnung, dass der Compiler da schon alles richtig macht. Tut er in der Regel auch. Was gcc und Co heute alles drauf haben ist wirklich, wirklich beachtlich und ich ziehe vor den Entwicklern meinen Hut. Dennoch gibt man viel der Kontrolle ab. C# und Java sind da noch eine andere Hausnummer.

    Dazu kommt dann noch, warum sollte man heute überhaupt noch so massive Optimierungen durchführen, tricksen usw.? Gängige PCs haben doch genug Rechenleistung und Speicher. Auf ein paar MB kommt es da doch nicht mehr an. Früher führten diese Optimierungen dazu, dass auf der Hardware alles noch etwas besser lief. Ich sage mal die späten Spiele des C64. Skate Or Die 2 usw. Wahnsinn, was man aus dieser Kiste noch alles quetschen konnte. Oder der Atari VCS. Der konnte am Ende Dinge, welche die Hardware eigentlich gar nicht können durfte. Heute fällt es nicht mehr auf, wenn man ein Programm wirklich bis ins Kleinste optimiert hat.


    Wofür man so grosse Festplatten braucht, ist in etwa das gleiche Prinzip. So in den Zeiten von 1990 bis 2000 lebten die Meisten mit Festplatten um die 512 MB. Einige auch weniger. Meine erste Festpatte war 100 MB gross und auch damit war ich damals der Held. Das war noch für den Amiga 500 und meine Freunde hatten Festpatten von 30-80 MB. Hat man damals angefangen, alle Spiele aus seinem Besitz auf die Festplatte zu bannen, waren die trotzdem eigentlich noch braches Land. Selten hatte da mal ein Spiel 10 MB, denn da war ja die Sache, wenn man die Spiele verkaufen wollte, musste man sie auf Disketten bannen und 1,44 MB waren jetzt nicht gerade üppig. Weshalb sich dann auch wieder die Enwickler daran gemacht haben, Spiele so effizient wie möglich zu schreiben, einen Kompromiss aus ansehnlicher, aber speicherschonenden Grafiken zu basteln, damit man mit so wenig Disketten wie möglich auskommen konnte. Ausserdem, wer hatte damals schon gedacht, dass man mal ganze Filme auf seiner Kiste schauen kann?

    Mit der CD hat sich hier viel geändert. Auf einmal war da Platz für Grafiken, Sounds, Musik, Sprachausgabe und was weiss ich. Alles gebannt auf einen einzigen Datenträger, was die Geschichte viel günstiger gemacht hat. Entwickler mussten nicht mehr so viele Kompromisse eingehen und zack, hatte man ein Wing Commander 3 mit echten Schauspielern. Fand ich grausam irgendwie. Mir haben die Animationen schon immer besser gefallen und das ist auch bis heute so. Aber, es geht ja nicht um meine Meinung. Auf einmal gab es Spiele und Programme, die bei der Installation einfach Platz haben wollten und schon ging es los. Mehr Speicher musste her, durch die Nachfrage fielen die Preise und wo sind wir jetzt? Ich habe 8 TB im Rechner und ein Spiel wie Ark mit DLCs und Mods frisst da einfach schon einmal 700 GB. Klar, hochauflösende Texturen brauchen eben ihren Platz und detailreiche Modelle sind auch nicht gerade zimperlich.


    Das mit den Grafikkarten war aber schon damals ein Punkt, der abzusehen war. Die Leute wollten schon immer Spiele, die so gut es nur geht aussehen. Wenn ich nur mal überlege, wie viele in meinem Bekanntenkreis sich für Doom 3 komplett neue Rechner zusammengebaut haben, da wundert mich die Entwicklung überhaupt nicht. Wobei Grafiikkarten heute ja auch für viele andere Zwecke genutzt werden. Ich zum Beispiel nutze die CUDA Kerne meiner Grafikkarte für Blender und das macht einen derart grossen Unterschied. Von Minen und so will ich jetzt gar nicht erst anfangen.


    Was die Bandbreite angeht, sehe ich da auch eigentlich, dass die Entwicklung abzusehen war. Meine ersten Gehversuche waren am C128 meines Vaters mit dem Modem für BTX. 1600 oder 1800 Baud oder so. Da wurde der Text für die Seite langsamer angezeigt, als man ihn lesen konnte. Echte Bilder waren utopisch. Aber das Interesse war da. Dann das Internet. Schöne, neue Welt. Die Entwicklung ging dann ja auch schon recht zügig. 14.4, 28.8, 56K, es ging eigentlich wirklich beeindruckend schnell. ISDN und dann ADSL. Meine Güte. Heute? Zum einen, ich kenne eigentlich keinen Computer mehr, der nicht im Netz hängt. Browser, Streaming-Dienste und was weiss ich nicht noch alles. Da muss eben Bandbreite für her. Eigentlich bin ich der Meinung, meine 100 MBit Leitung ist dafür ausreichend. Wenn da nicht die dauernden Ausfälle wären, die mich regelmässig echt fuchsig machen. Die muss ich tolerieren, aber wehe ich vertippe mich bei der Überweisung und es fehlen 3 Cent. Zack, Anschluss dicht. Ja, wegen 3 Cent. Nein, ich lasse nichts abbuchen.


    Leider geht es aber bei Allem immer um Geld und Zeit. Klar, Zeit ist Geld, lernt man ja schon früh. Ich würde wirklich gerne mal sehen was passieren würde, wenn man die Unreal 5 Engine bis ins Mark optimieren würde. Geht heute aber eigentlich nicht mehr, denn damit würde man voraussetzen, dass jeder PC den gleichen Prozessor, Speicher und Grafikkarte hat. Unmöglich. Dennoch würde es mich wirklich interessieren. Die Grafikkarten mal bis in die letzte Ecke ausquetschen, mit Tricks, Optimierungen usw. Wie beim Atari oder C64. Das Ergebnis wäre wahrscheinlich der Wahnsinn.


    Davon aber eben mal abgesehen. Was passiert, wenn die Programme immer mehr Speicher brauchen? Man kauft sich für ein paar Euro mehr Speicher und knüppelt den in seinen Rechner. Man hat keine 200 FPS bei einem AAA Game in 4K irgendwas, dann eben eine neue Grafikkarte. Früher gab es das nicht. Früher waren es die Entwickler, die für gute Optik und flüssigen Spielspass sorgen mussten. Da konnte man nicht einfach sagen, wie kloppen da jetzt ein High-End Game zusammen, die Spieler werden sich schon die Hardware dafür kaufen. Das ist irgendwo sehr schade. Gerade im Sinne der Nachhaltigkeit. Gut optimierte Software würde viele PCs noch einige Jahre im Einsatz halten, bevor dann zu stärkerer Hardware gegriffen wird. Aber verständlich ist es auch. Wie will man denn eine Unreal Engine für Nvidia, AMD, Intel und Co optimieren? Das geht eben einfach nicht oder ist mit so hohem Aufwand verbunden, dass sich keiner mehr die Spiele leisten könnte.

    Ein für mich schönes Beispiel ist und bleibt da LibreOffice. Wie kann es denn sein, dass ein aktuelles Progamm mit Textprozessor mit 1GB Arbeitsspeicher keine 100 Seiten flüssig darstellen kann, wenn es ein Amiga 1200 mit 4 MB konnte? Das es auch heute noch geht, zeigen die anderen Office-Anwendungen, WPS-Office, FreeOffice, OpenOffice. Schmeisse ich da mein grösstes Buch auf meinem Netbook rein, der nur 1GB hat, kann ich bei über 1000 Seiten flüssig arbeiten. Nur LibreOffice kann es nicht und da würde ich mal stark annehmen, dort wird auf Optimierung kein grosser Wert gelegt.


    Schlussendlich ist es aber eben so. Alles entwickelt sich weiter. Spiele werden grösser, man kopiert sich seine Filme auf den Rechner, hat Bilder ohne Ende, riesige Spiele, die eben auch entsprechend gut aussehen usw. Der Konsument bekommt was er will, die Entwickler und Hardware-Hersteller liefern.


    War es früher besser? Das will ich eigentlich nicht sagen. Ich würde es schmerzlich vermissen, meine Update nicht einfach aus dem Netz saugen zu können oder mir ein Programm mal eben zu installieren, welches ich für mein Vorhaben brauche. Oder auch, ich will eigentlich nicht zum statischen Fernsehen zurück. Ich möchte die Filme und Serien dann schauen können, wann ich es will und nicht, wann der Sender mir das vorgibt. Zudem finde ich es bei den Spielen so, dass die Entwickler sich früher mehr Zeit für die Story gelassen haben. Heute sind viele Spiele, genau wie Filme, ein Feuerwerk an Effekten, aber die Story ist so dünn, dass eine Spinne bei ihren Fäden Komplexe kriegt. Nicht alles. Es gibt auch heute noch echte Perlen. Es werden aber weniger.


    Gut. Wie ist denn eure Meinung dazu?

    gnome hat es sogar im laufenden betrieb gut weggesteckt

    Klar, liegt soweit ja alles im Speicher. Aber ein schöner Punkt wo man mal sieht, dass heute immer weniger im Betrieb nachgeladen wird. Früher war das ja anders. Ich sehe es beim AmigaOS ja auch immer wieder, wie viel da immer wieder von der Platte nachgeladen wird. Damals war das ein Krampf, da die Festplatten ja doch noch langsam waren. Heute mit SSD und Nvme wäre das ja weniger ein Problem, aber heute ist in aller Regel auch genug Speicher vorhanden. Ist schon witzig, wie sich das alles entwickelt hat.

    Ich weiss noch gut, wie ich damals auf meinem DraCo, der ja die utopische Menge von 128 MB hatte, immer alles von der Systemplatte erst in den RAM kopiert habe und von dort dann arbeiten konnte. Das war ein so massiver Geschwindigkeitsanstieg, es war irre. Auch Wing Commander habe ich zuerst in den RAM kopiert und von dort gestartet. Was uns dann wieder zu Skripten bringt, denn natürlich hatte ich die geschrieben. Skript gestartet, Wing Commander in den RAM kopiert, gestartet und nach Beenden dann die Spielstände auf die Platte kopieren. Das war irgendwie witzig damals und von der Performance her extrem krass.

    Aber zurück zum Thema. Natürlich ist es richtig. Du kannst unter Linux alles löschen was du willst. Versuch mal rm -rf /. Das wird ein Spass. Nein, nein, nicht ausprobieren und wenn dann auf eigene Verantwortung.

    Normalerweise hätte es aber nicht funktionieren dürfen, Nautilus mit Abhängigkeiten zu deinstallieren. Da du aber Gnome gleich mit entfernt hast, war es kein Problem.