Beiträge von diabolusUmarov

    Ja ich weiß das kann vermutlich immer passieren aber bei einem Rollig-Release ist die Gefahr größer nach einem Update Probleme zu bekommen.

    Diesen Effekt kenne ich bestenfalls von legacy Nvidia-Treiber, als bei alten Grafikkarten. Da muss man wirklich hin und wieder Hand anlegen, nach einem Update. Ist eigentlich auch kein Hexenwerk, für reine User aber sicherlich ein Ärgernis.

    Ich für meinen Teil würde deine Aussage komplett rumdrehen. Ich hatte schon weit mehr Probleme mit versionierten Distros, als mit rolling Release. Bei versionierten war jedes grosse Update für mich immer eine Zitterpartie, die in den meisten Fällen auch in die Hose ging.


    warum dann nicht als Beispiel wieder ein Debian Stable, einmal eingerichtet und ich hätte für Jahre meine Ruhe und benutze es einfach

    So habe ich auch schon gedacht, deshalb hatte meine Frau ja Mint auf dem Rechner. Das Stable kann hier aber zum Problem werden. Denn es ist ja nicht nur das OS Stable, sondern auch die Software. Ist man ein, sagen wir mal "Insel" User, also man macht seinen Kram ohne gross Kontakt zu anderen Usern, ist das kein Problem. Meine Frau hingegen tauscht sich auch mit anderen Usern aus, die zum Beispiel Gimp einsetzen. Da kam es dann schon zu dem Fall, dass ein Bekannter von ihr zu einer Frage bei Gimp meinte, sie solle es mal so und so versuchen. Das Problem war, der hatte das aktuelle Gimp, meine Frau die Stable-Version, die ein gutes Stück hinten dran war. Das brachte sie an den Punkt wo sie meinte, sie wäre vielleicht zu Doof dafür. Bis es sich eben aufgelöst hat, dass die Beiden verschiedene Versionen verwenden.

    Bei meiner Tochter ein ähnliches Spiel. Die hatte auf ihrem ersten, ziemlich alten Laptop damals Bunsenlabs drauf. Die Tutorials zu Gimp waren aber mit einer deutlich neueren Version, weshalb einiges in ihrer Version nicht so funktionierte.

    Also Stable kann ein Segen sein, aber auch ein Fluch.

    Mahlzeit!

    Da ich gerade wieder eine Diskussion bezüglich der Frage, lieber ein versioniertes oder ein rolling Release OS dachte ich, man könnte sich ja mal darüber austauschen.

    Ich bin ja ein Freund von rolling Release. Das kenne ich eigentlich erst seit Gentoo, aber seither finde ich es einfach super.

    Warum?

    Das ist ganz simpel erklärt. Es gibt einfach keine Probleme beim umstellen auf eine neue Version, da es schlicht keine gibt. Meine Frau hat lange Mint eingesetzt und da kam es eigentlich immer zu irgendwelchen Problemen. Selbst wenn das Update geklappt hat, kam es im Nachhinein zu Problemen und nicht selten habe ich dann alles neu gemacht. Da ich aber das Home-Verzeichnis generell auf einer anderen Partition, oder Platte liegen habe, waren ihre Daten wenigstens sicher und recht schnell war auch alles wieder so, wie es gewohnt war.

    Gentoo ist wahrscheinlich jetzt aber kein positives Beispiel für RR. Da kommt es bei Updates so oft zu Konflikten und Problemen, die man dann erst auflösen muss, dass da kein wirklicher Vorteil zustande kommt. Wobei sich das mittlerweile auch geändert haben kann, bin von Gentoo ja schon eine Zeit weg.

    Arch macht dahingehend aber bei mir, meinen ganzen Geräten, meiner Frau und jenen, denen ich es eingerichtet habe, nie irgendwelche Probleme. In einem anderen Beitrag habe ich schon gesagt, dass AUR Pakete hin und wieder mangels Pflege zu Probleme führen können, dass beeinträchtigt das System jedoch nicht.

    Man könnte als Kritik anführen, dass es gerade bei Arch dauernd zu Updates kommt. Ich selbst mache auf meinem Desktop und meinem Futro mehrfach täglich Updates. Stört mich auch nicht, es sei denn es ist mal wieder ein neuer Kernel dabei, der einen Neustart fordert.

    Viele mögen aber diese ständigen Updates nicht. Dazu kann ich nur sagen, es ist kein Windows. Die sind keine Pflicht und das OS macht auch nicht mal einfach so ein Update, weil es gerade will. Wer keinen grafischen Manager verwendet, bekommt ohnehin nicht mit, ob Updates vorliegen. Vor Pamac habe ich immer nur Montags ein Update gemacht, was sich bei den Laptops, dem Pi und dem NetBook sowie dem Rechner meiner Frau bis heute auch so durchgesetzt hat. Es ist also kein Zwang, bei Updates auch sofort die Updates durchzuführen. Auch bei den grafischen Paketmanagern kann man, wie der Pinguin in seinen Videos ja schon demonstriert hat, die Prüfung auf Updates individualisieren.

    Von meiner Sicht her ist also ein rolling Release die Methode der ersten Wahl. Ich sage aber extra, aus meiner Sicht. Ich sage also nicht, nur rolling Release ist toll.

    Jetzt würde mich interessieren, wie ihr das sehr. Habt ihr weitere Kritiken an rolling Release? Wo liegt bei euch der Vorteil eines versionierten OS?

    Wie läuft das eigentlich bei versionierten Distributionen? Klar, Sicherheitslücken werden für das System dann keine mehr geschlossen, aber ist es so wie bei Windows? Wenn der Support weg fällt, kann man die Version dann in die Tonne treten, weil Software auch nicht mehr mitspielt?

    Kann ich mir bei Linux jetzt nicht denken, aber es wäre in gewisser Hinsicht auch Logisch im Hinblick auf Sicherheit.

    Mahlzeit!

    Ich weiss, es gibt schon ein Thread wegen Gnome 43, aber ich möchte einen Thread mit Erfahrungen, Tipps und so starten. Das könnte für Leser interessant sein. Wenn die Forum-Admins das anders sehen, bin ich aber auch nicht böse.

    Anfangen will ich mal mit meiner Geschichte zu Gnome. Das habe ich schon damals, so 96/97 unter NetBSD verwendet und damals war das noch harte Handarbeit. Bis man da alle Abhängigkeiten gefunden und compiliert hatte, bis man dann gleiches mit allen Gnome Komponenten hinter sich hatte, da war schon viel Geld wegen den Downloadzeiten mit dem 28.8er Modem futsch. Kann man sich heute wahrscheinlich gar nicht mehr vorstellen. Es waren, wenn ich nicht ganz falsch liege, insgesamt so 300 MB. Damals eine kaum zu schaffende Zahl. Hätte ich damals nicht über ausreichend finanzielle Mittel verfügt, wäre mir das auch nicht möglich gewesen. Ich schätze mal, der ganze Download dürfte damals schlussendlich so zwischen 200 und 400 DM gelegen haben. Aber gut, damals war das für mich nicht nennenswert. Damals, heute würde ich zusammen brechen ;).

    Okay. Fortan war ich aber Fan von Gnome und hatte es auch immer auf allen unixoiden Betriebssystemen im Einsatz. Dann kam Gnome3. Erst hatte ich mich gefreut, dann schnell festgestellt, dieses neue Konzept gefiel mir gar nicht. Konnte man vorher bis zum Schatten der Elemente alles einstellen, waren die Einstellmöglichkeiten auf einmal fast alle weg. Klar, über CSS Dateien hätte man da noch einiges regeln können, aber CSS ist ja auch immer wieder so eine Sache. Manchmal überschreibt etwas einen anderen Eintrag, man findet ewig nicht, wo das Problem liegt usw. Selbst der Linus, also der Entwickler von Linux, hat sich damals gegen Gnome 3 ausgesprochen, da es dem Geist von Linux, eben alles anpassen zu können, widersprochen hat.

    Also, weg von Gnome 3. Das ich damit nicht alleine war sieht man auch daran, dass schon recht schnell Mate entstanden ist, was ja ein nach wie vor gut gepflegter und weiter entwickelter Fork von Gnome 2 ist.

    Ich war sehr lange aktiv mit Mate unterwegs. Irgendwann hat mich dann Xfce gefangen, ich hab auch Enlightenment versucht, Fluxbox habe ich eine Zeit eingesetzt, wie auch IceWM und eine ganze Zeit lang AwesomeWM, welches ich mit vielen eigenen Konfigurationen, da ist die Konfiguration ja in Lua geschrieben, Lua ist eine Programmiersprache und deshalb kann man extreme Dinge damit machen, bis ich schlussendlich bei Cinnamon gelandet bin, was ich bis vor ein paar Tagen noch durchgehend auf meinem Desktop eingesetzt habe.

    Soviel zur Vorgeschichte.

    Jetzt kommt da der Pinguin ums Eck und installiert Arch mit Gnome. Mein erster Gedanke, warum Gnome? Aber gut. Video angeschaut und zack, hier eine Erweiterung, da ein Theme, dort noch eine Erweiterung und was soll ich sagen. Ich war sofort interessiert, Gnome wieder eine Chance zu geben.

    Gesagt, getan. Also Gnome installiert, einige der gezeigten Erweiterungen, ein bisschen an den Einstellungen gespielt und seither läuft es bei mir und ich muss sagen, ich bin echt zufrieden damit!

    Zu den Vorteilen, die ich sehe, zählt definitiv der zweite Monitor. Cinnamon hat da die Angewohnheit, wechselt man den Workspace auf einem Monitor, wechselt auch der auf dem anderen Monitor. Das ist jetzt kein wirkliches Problem, aber manchmal nervt es etwas. Bei Gnome schiebe ich einfach das, was ich auf dem 2. Monitor haben will dorthin und schau an, es bleibt dort. Egal wie ich den Workspace auf dem Hauptbildschirm wechsele. Gefällt mir sehr gut!

    Was mich im ersten Moment etwas gestört hat, waren die Aktivitäten. Also wenn man die Mouse oben Links in den Eck zieht, dass dann die Aktivitäten angezeigt werden. Fand ich nicht toll und habe deshalb die Window-Liste eingebunden. Die hat mir aber auch nicht so gut gefallen, da alle Fenster mit vollem Namen angezeigt werden. Das wirkt alt und von Connamon bin ich gewohnt, dass dort nur das Icon zu sehen ist. Doch bevor ich mich daran machen konnte dort auch etwas zu ändern, haben mich die Aktivitäten überzeugt. Dank denen braucht man ja gar keine Window-List. Einfach die Mouse in Eck geschoben und das entsprechende Fenster ausgewählt. Window-List also wieder weg, jetzt habe ich mehr Platz und komme trotzdem sehr bequem an die Fenster, wenn auf einem Workspace mehrere offen sind. Oder auch direkt in ein Fenster auf einem anderen Workspace. Gefällt mir auch sehr gut!

    Mit der Erweiterung Dash to Dock habe ich dann jetzt das Dash als Dock. Einziger Unterschied ist eigentlich, als Dash muss man erst auf Aktivitäten, als Dock ist es einfach unten in der Leiste. Hatte es zwar am Anfang wie der Pinguin auch an der Seite, doch da habe ich dann ein Problem. Mein Hauptbildschirm sitzt vor mit,, der zweite Monitor ist links daneben. Mache ich das Dock auf die rechte Seite, klappt es ptima auf dem Hauptbildschirm. Auf dem zweiten Monitor sitzt es aber dann genau am Übergang. Da dann die richtige Stelle zu finden, dass das Dock erscheint, ist nicht immer ganz einfach. Baue ich das Dock auf die linke Seite, habe ich das gleiche Problem auf dem Hauptbildschirm. Also sitzt das Dock jetzt unten, da klappt es auf beiden Monitoren.

    Mir gefälltauch, dass man die Grösse verändern kann. Ich habe die Skalierung auf 0,9 gestellt und jetzt sind viele Elemente kleiner, aber trotzdem sauber zu erkennen. Spart mir wieder Platz.Ja, Platz brauche ich wirklich. Gerade beim programmieren, schreiben, oder in Blender. Da heisst es einfach, je mehr Platz, desto besser. Diese Option habe ich bei anderen DEs bistlang noch nicht gefunden. Klar, in AwesomeWM geht das auch, aber durch LUA geht dort eigentlich alles.

    Die Benachrichtigungen gefallen mir zudem auch sehr gut. Sie sind dezent oben in der Mitte, könnte man zwar umstellen, aber mir gefällt das, sie sind dazu auffällig genug, um sie auch wahrzunehmen. Normalerweise klatschen Benachrichtigungen immer massiv ins Bild, egal bei welcher DE.

    Beeindruckt hat mich dabei auch die Integration von Pamac. Egal bei welchem DE, normalerweise wird nur das Symbol angezeigt und ob alles aktuell ist, oder ob es Updates gibt. Gnome zeigt einem sogar an, wie viele Pakete ein Update wollen und welche das sind. Finde ich echt toll!

    Als Kritikpunkte kann ich bislang nur nennen, dass die Anzahl der Workspaces nicht so einfach erhöht werden kann. Es gibt zwar die Möglichkeit dazu, aber bislang wurden dann trotzdem nur 2 angezeigt. 2 sind mir aber definitiv zu wenig und auch Erweiterungen brachten nur bedingt Abhilfe. Die vom Pinguin gezeigte Lösung per Skript war hingegen erfolgreich. Da finde ich es aber schade, dass man da so basteln muss.

    Desweiteren ist die obere Leiste ein Ärgernis für mich. Nicht die Leiste selbst, sondern dass man die nicht auch gleichzeitig auf dem zweiten Monitor anzeigen lassen kann. Auch hier hat mir der Pinguin zwar eine Möglichkeit gezeigt, die funktioniert bei mir allerdings nicht. Das Beste, was bislang zu erreichen war, war über eine Erweiterung. Sobald ich auf dem Hauptbildschirm etwas im Vollbild laufen habe, wird die Leiste auf den 2. Monitor geschoben. Das hilft zwar, aber irgendwie fühlt es sich nicht befriedigend an. Ist zwar subjektiv, aber das gehört eben dazu.

    Mein Fazit bislang ist also, Gnome ist, wenn man mit Erweiterungen arbeitet, echt gut. Im Vergleich zu Xfce, welches ich kürzlich erst als Ersatz für Cinnamon probiert habe, habe ich derzeit noch nicht den Wunsch verspürt, zu Cinnamon zurückzukehren.

    Wenn ich wieder ein Update vom Kernel habe, was ja nicht lange dauern dürfte, schaue ich mal nach dem Speicherverbrauch direkt nach einem Neustart. Irgendwie habe ich aber das Gefühl, da wird Gnome sich nicht besser schlagen als Cinnamon. Stört mich aber nicht. Wenn ich zum Beispiel spiele, wechsele ich ohnehin auf AwesomeWM. Linux ist da ja zum Glück wirklich problemlos. Ausloggen, mit anderem DE einloggen, fertig. Wobei ich sagen muss, beim ausloggen hat man hinterher nicht so viel Speicher frei, wie nach einem Neustart. Da bleibt also irgendwo was zurück. Aber in dem Fall ist ein Neustart, seit SSD, ja auch kein Problem mehr. Von meiner alten HDD hat so ein Neustart schon seine Zeit gebraucht.

    Okay. Das soll erst einmal reichen. Ich experimentiere noch ein bisschen, dann habe ich bestimmt wieder was zum tippen :winking_face:

    Gibt es öfter Probleme bei Updates?

    Ich hatte noch nie eins, obwohl ich hin und wieder von Problemen höre. Das sind aber fast immer Probleme, die durch AUR Pakete auftauchen. So hat der Viewer "Mirage" zum Beispiel Abhängigkeiten, die nicht mehr gepflegt werden. Also zumindest das AUR Pakt wird nicht mehr gepflegt. Dann kommt es zu Problemen und Abbrüchen bei einem Update. In solchen Fällen ist dann empfehlenswert, ein solches Paket zu entfernen. Sollte man das allerdings brauchen, was bei Mirage aufgrund der doch vielfältigen Alternativen nicht der Fall sein sollte, muss man ein bisschen in den AUR Paketen mit der PKGBUILD spielen, damit das wieder funktioniert.

    Ansonsten sind mir keine Probleme mit Updates bekannt. Jetzt bin ich mir im Moment gar nicht so sicher, wie lange ich Arch aktiv einsetze. Aber mindestens 5 Jahre, wenn nicht länger. Auf einigen Rechnern. Desktop, Laptop, NetBook, Futro, zeitweise auf dem Pi3. Wie ich schon geschrieben habe, wenn es um Timeshift und Co ging, gab es bei mir auf keinem System irgendwann ein Bedarf an einem solchen Snapshot und das dürfte ja ein Beleg für die Robustheit von Arch sein.

    Ich habe auch schon lang nicht gepflegte Arch-Systeme wieder problemlos updaten können. Da gab es lediglich das Problem von abgelaufenen Zertifikaten, was man aber mit einem simplen

    Code
    sudo pacman -S archlinux-keyring

    beheben kann. Danach lief das Update durch, auch wenn es seine Zeit gedauert hat.

    Ich kann dieses Leben im Netz auch nicht verstehen, obwohl ich es gute 5 Jahre selbst gemacht habe. Aber nicht, weil ich nicht gerne unterwegs war, sondern weil ich einfach zu kaputt war. Ich habe damals in einem Gerüstbaubetrieb gearbeitet, wo zwar pünktlich gestartet wurde, aber wann man dann zurück kam, dass wusste niemand. Ich hab da fast eine Phobie gegen die freie Natur entwickelt. Hätte ich da nicht SecondLife gehabt, wäre ich wahrscheinlich wirklich vereinsamt.

    Wie aber Menschen, die einen normalen Arbeitstag haben, ihre Freizeit nur noch mit Facebook, Instagram und TikTok verbringen können, dass erschliesst sich mit nicht. Ich war zum Beispiel gestern mit meiner kleinsten Tochter Schlitten fahren. Oder im Sommer sind wir draussen. So Sachen wir UNO spielen, oder sonstiges. Im Pool gammeln, so stelle ich mir das vor. Was viele da machen, verstehe ich nicht.

    Aber deine Fragen mit Bewusstsein, Angst usw. Tja. wie will man das simulieren? Das Problem ist ja, man weiss ja nicht einmal, was Bewusstsein ist. Man kann ja nicht ein echtes Bewusstsein nehmen, eine KI daneben halten und vergleichen. Denn wie gesagt, was ist Bewusstsein? Was ist Leben. Da gibt es ja nicht einmal nennenswerte Theorien. Der Eine sagt, Bewusstsein besteht ab etwa dem 2. Lebensjahr, weil Kinder sich dann im Spiegel erkennen, Andere sagen, es beginnt mit dem ersten Herzschlag. Da ist dann wieder die Sache, wenn ich eine KI so aufbaue, dass sie nach einiger Lernerfahrung einen Spiegel sieht und sagt, dass sie sich selbst betrachtet, ist es dann ein Bewusstsein?

    In Sachen Angst ist das schon etwas einfacher. Was ist Angst? Ein Mechanismus der uns sagt, da bleiben wir lieber weg. Das nachzubauen ist gar nicht so schwer. Sagen wir, in meinem Bot würde ich ein Netz einbauen, was Gefühle lernen soll. Mein Bot fährt dann irgendwohin, stürzt zum Beispiel eine Treppe runter und dann ist was kaputt. Das Netz könnte das dann so lernen, Treppen sind Gefährlich, da bleiben wir lieber weg. Es wäre im Prinzip der gleiche Mechanismus wie beim Mensch. Oder anderes Beispiel. Ein Hund kommt angelaufen, packt sich den Bot und spielt damit. Dabei geht was kaputt. Aus den Daten könnte das Netz dann lernen, wenn bestimmte Geräusche auftauchen, ist Gefahr im Verzug. Was ein verstärktes überprüfen der Umgebung auslösen würde, wo nach dem Muster Hund gesucht wird. Könnte man ebenfalls als Angst definieren.

    Glück ist das Gleiche. Das Netz könnte zum Beispiel lernen, wenn wenn der Energiespeicher leer wird, muss der Bot sein Solarpanel zur Sonne ausrichten. Anstatt also einfach per Programm statisch einzuknoten, wenn die Spannung einen bestimmten Wert erreicht hat dreh dich zur Sonne, würde das Netz aufgrund der niedrigen Spannung das Signal auslösen, nach Energie zu suchen. Könnte man als Hunger definieren. Wenn dann die Ausrichtung zur Sonne so ist, dass die Energie aufgefüllt wird, könnte das Netz dann das Signal auslösen, alles tutti, was man mit Freude, oder Befriedigung definieren könnte.

    Und Tada, schon haben wir das Problem. Sind das dann Gefühle? Dann kann man anfangen sich zu fragen, was man denn selbst für Gefühle hat. Hunger heisst, man braucht Energie. Freude heisst, man hat irgendein Bedürfnis zufriedenstellend befriedigt. Angst heisst Vorsicht.

    Da braucht dann auch keiner mit Liebe zu kommen. Denn auch das kann man einem Bot beibringen. Der Bot, den ich zum Beispiel da bauen will, ist sehr einfach. Es wäre wahrscheinlich kein überirdischer Aufwand, den mit Werkzeug auszustatten, um aus den entsprechenden Teilen ein Replikat anzufertigen. Okay. Es wäre eine 1:1 Kopie. Also nichts da mit genetischer Variation. Das wäre auch nicht schlimm, denn die Genetik ist eigentlich nur dafür verantwortlich, Verbesserungen einzufügen, die Spezies weiterzuentwickeln. Klar, man könnte natürlich einer KI auch beibringen, welche Probleme die vorherrschende Bauweise hat und wie man die verbessern könnte. Aber da wird es für mein Projekt dann doch utopisch.

    Ich könnte aber sehr wohl folgendes machen. Der Bot kann nur dann eine Reproduktion zum "Leben" erwecken, wenn er zusammen mit einem anderen Bot sein Wissen kombiniert. So könnte ich den Dingern Schnittstellen einbauen. Lustigerweise sogar eine männliche und eine weibliche. Oder anders gesagt, der männliche Bot bekommt einen Stecker, der weibliche eine Buchse. So. Der weibliche Bot ist dabei mittels einer Nabelschnur mit der Reproduktion verbunden. Einfach um bei der Geschlechterverteilung zu bleiben. Als der männliche Bot steckt seinen Stecker in die Buchse des weiblichen Bot, der per Nabelschnur, in dem Fall wäre das ein Kabel, mit der Reproduktion verbunden ist. Er dadurch können sie den neuen Bot aktivieren, wobei aus beiden Speichern jeweils 50% der gespeicherten Gewichte übertragen werden. Auch wenn der neue Bot eine 1:1 Kopie wäre, wäre sein "Bewusstsein" die Summer seiner Eltern. Es wäre also ein wirklich ganz neuer Bot, bei dem man die Eigenschaften seiner Eltern beobachten könnte und der durch neue Erfahrung dann seinen eigenen Weg geht.

    Okay. Mit 2 Bots wäre es natürlich Schwachsinn, da Liebe einzubauen. Es gibt nur 2, also wäre es ja sinnbefreit, so einen Reiz einzubauen. Denn falls die Beiden sich nicht leiden können, ist die Population schon am Arsch. Gäbe es aber eine Gruppe von Bots, wäre das Spielchen schon anders. Ich erwähnte ja die Neugier. Die kann man natürlich auf optische Reize nicht anwenden. Alle Bots sind gleich, haben vielleicht nur ein bestimmtes Merkmal, was sie als männlich und weiblich ausweist. Jetzt könnte aber einer der männlichen Bots Interessen an einem bestimmten weiblichen Bot entwickeln. Vielleicht weil dieser, aus welchem Grund auch immer, beim aufladen immer eine bestimmte Stelle aufsucht, oder die Linie nicht ganz akkurat verfolgt, oder was auch immer. Irgendetwas, was ihn eben von den anderen Bots unterscheidet und was das Interesse des männlichen Bots weckt. Ist da auch ein Fortpflangungstrieb im Spiel, wird der Bot sich mit diesem weiblichen Bot paaren wollen und im Endeffekt ist das die minimale Form von Liebe. Oder es könnte auch anders laufen. Wenn zum Beispiel die Bots aufgaben erledigen sollen und zwei der Bots merken, dass sie als Team die Aufgaben besser erledigen können. Also im Endeffekt ist Liebe auch nichts besonderes.

    Wo du absolut Recht hast ist mit der Tatsache, dass ein menschliches Gehirn um so viel leistungsfähiger ist, als jede Art von Computer. Betrachtet man die Grösse, was so ein Gehirn alles speichern und zu Stande bringen kann und dabei gerade mal 20 Watt aufnimmt, dann ist das schon ziemlich heftig. Wenn man dann noch bedenkt, dass ein Gehirn neue Bahne und Verknüpfungen anlegen kann, da scheitert es schon bei der Nachahmung. Wie gesagt. Analog wäre das viel, viel, viel leichter. Jedes Neuron ist ein fester Widerstand, der durch Potis mit allen anderen Neuronen verbunden ist. Vorne legt man eine Spannung an und hinten kommt eine andere Spannung raus. Binäres Rechnen zum Beispiel. Vorne werden zB 5 Volt angelegt, also eine 5. Hinten sind eine Reihe LED. Sagen wir 5 für 5 Bit. Dann müsste als Ergebnis

    Code
    00000101

    Erscheinen. Also wenn jede Zahl eine LED ist und 0 ist aus 1 ist an. Wenn nicht, dann dreht man so lange an den Potis, bis es stimmt. Viel Leistung würde nicht durch so ein Netz gehen und besonders interessant wäre, sobald man vorne eine Spannung anlegt, hat man hinten das Ergebnis. Das wäre verdammt schnell, egal wie komplex.

    Wenn man sich das aber mal bildlich vorstellt, ein Gehirn hat Milliarden Neuronen und alle sind mit Synapsen verbunden. Das wäre dann ein richtig, richtig, richtig grosses Teil.


    Die Verbindung zu LinuxNews/ChatGPT

    Also meine Antworten beziehen sich genau auf das hinter dem /.

    Bedingt gebe ich dir da Recht. Nicht was Krypto angeht. Spekulanten dürften davon jetzt zwar die Nase voll haben, aber das war ja nie der Grundgedanke, sondern eine Währung frei von Kontrolle und Inflation. Da hege ich die Hoffnung, dass gerade Bitcoin dann jetzt von einem Spekulationsobjekt doch noch seine wahre Bestimmung erfüllt.

    Was KI angeht, da bin ich aber voll bei dir. ChatGPT ist keine KI, so wie man den Begriff verstehen sollte. Man muss auch keine Angst haben, dass der Staubsauger irgendwann ein Bewusstsein entwickelt und seinen Besitzer versklaven will. Auch ChatGPT wird niemals auf die Idee kommen, die Weltherrschaft an sich reissen zu wollen. Egal wie viel es lernt.

    Die meisten Menschen machen sich aber keine Gedanken, was Intelligenz eigentlich ist. Noch weniger, wie der Mensch, oder der Hund funktioniert. Deshalb ja mein Beispiel mit Baymax. Am Ende des Films könnte man annehmen, Baymax hat ein Bewusstsein entwickelt und ist menschlich. Bricht man aber seine Handlungen auf das Wesentliche runter, dann ist dem eben nicht so. Er lernt Verfahren, die das Wohlbefinden seines Patienten steigern. Mehr nicht. Egal wie es den Anschein hat.

    Genau hier setzen dann auch meine Experimente ein und eines ist mir schnell klar geworden. Ein neuronales Netz alleine ist komplett sinnlos. Das braucht Input und auf den Output muss reagiert werden. Wie ich zu meinen Experimenten ja gesagt habe, ich musste dem Ding erst eine Motivation, oder Instinkt geben, sonst wäre überhaupt nichts passiert. Genau da liegt der Knackpunkt und genau da geht auch mein nächster Schritt in dieser Hinsicht hin.

    Ich will als nächstes einen richtigen kleinen Roboter bauen. Also ein kleines Fahrzeug. Dafür will ich einen Pi Pico einsetzen und das Teil soll zu Beginn überhaupt nichts können. Es soll also selbst lernen, wie es seinen Antrieb einsetzt. Das wird es aber nicht tun, wenn es keine Aufgabe hat. Also wird sein Grundinstinkt sein, einer weissen Linie zu folgen. Also hat es den Instinkt sich zu bewegen. Muss aber, ähnlich wie im realen Vorbild, erst einmal lernen, wie es sich zu bewegen hat.

    Und genau hier fängt es schon an. Denn mit einem neuronalen Netz wird es nicht getan sein. Wie auch? Denn eigentlich müsste das so programmiert sein, dass dieses Netz selbstständig Leitungen zu den Motoren legen müsste. Geht aber nicht. Also muss ich diesen Schritt selbst durchführen, also die H-Brücken der Motoren mit dem Mikrocontroller verbinden. Das Netz bekommt seine Motivation. Folge der weissen Linie. Dieser Instinkt rudert nun jeden einzelnen Durchgang durch das Netz. Hinten raus feuern dann Neuronen, die irgendetwas zu den Motoren schicken. Dann wird geprüft, ob entsprechendes Neuron auch das richtige gemacht hat. In meinem Beispiel wäre das also, es gibt vier Ausgabeneuronen. 1 wäre linker Motor vorwärts, 2 linker Motor rückwärts, 3 rechter Motor vorwärts, 4 rechter Motor rückwärts. Soll der Bot dann einer geraden Linie folgen, muss es also lernen, für seine Aufgabe Neuron 1 und 3 zu feuern.

    Da geht es dann gleich weiter. Denn um zu wissen, ob es richtig war und ich ihm das nicht immer sagen muss, muss da eine Möglichkeit sein, das Ergebnis zu prüfen. Also ein Sensor der zeigt, der Bot befindet sich über der weissen Linie. Rechts und Links davon sollte also gleichmässig viel nicht weiss sein. Dann ist es prima. Okay, mit einem gewissen Schwellwert. Genau die Mittellinie zu treffen wäre etwas zu heftig.

    Also. Um so einen Bot selbstständig über eine weisse Linie fahren zu lassen, braucht es eine Eingabe, in dem Fall der Instinkt, eine Handlung, die Bewegung und dann eine Kontrollmöglichkeit, also einen Sensor.

    Das sollte vom Pi Pico auch problemlos gestemmt werden können. Es wird etwas dauern, klar, aber es sollte zu realisieren sein.

    Viel einfacher könnte ich das aber realisieren, indem ich einen statischen Algorithmus einbaue. Also wenn vom Sensor die Eingabe kommt, dass Links und Rechts die Abweichung von Weiss innerhalb bestimmter Parameter ist, feuere Pin 1 und Pin 3.

    Wie aber die Bezeichnung schon sagt, es ist statisch. Baue ich da jetzt eine Kurve ein, wird bei der statischen Variante folgendes passieren. Der Bot kommt bis zu der Kurve, die sagen wir mal nach Rechts abbiegt. Dann wird die Abweichung von Weiss grösser, überschreitet den zulässigen Parameter und der Bot bleibt stehen.

    Mit einem neuronalen Netz aber nicht. Der kommt dann an die Kurve und fängt an auszuprobieren, was er feuer muss, um auf Kurs zu bleiben. Irgendwann wird er dann lernen, er muss nur 1 feuern, dann wandert der weisse Bereich wieder in die Mitte.

    Nach X Zyklen wird das dann so stabil sein, dass man die unmöglichsten Kurse aufmalen kann und er Bot wird folgen, ohne das man selbst irgendwas am Programm geändert hat. Der fährt dann und fährt und fährt, bis irgendwann die Energie alle ist und auch dann versucht er es so lange, bis die Energie sogar für den Mikrocontroller zu schwach ist.

    Und schon steht man vor dem nächsten Problem. Denn egal wie perfekt dieses Netz am Ende arbeitet, es wird nie mehr tun können, als einer weissen Linie zu folgen. Aus biologischer Sicht heisst das, es folgt so lange stur seinem Instinkt, bis es stirbt. Das könnte man sogar auf so ein Netz übertragen. Denn speichert man die Gewichte der Synapsen nicht, dann ist hinterher alles erlernte weg, was so etwas wie dem Tod gleichkommt. Man wäre aber ziemlich blöd, wenn man die Werte nicht speichern und später wieder laden würde.

    Das zeigt aber das eigentliche "Problem". So eine KI macht immer nur das, was man ihr vorgibt. Deshalb wird ein Staubsauger auch nie etwas anderes machen, als seine Arbeit. Um einen lernfähigen Algorithmus ist immer ein Programm gebaut und das gibt am Ende die Funktionsweise vor. Egal wie viel die KI darin lernt.

    Aber genau das ist auch das spannende. Leider kriegen das die meisten Nutzer von KI gar nicht mit. Denn wenn man sich darüber Gedanken macht und sich irgendwann die Frage stellt, wie funktioniert das eigentlich bei mir, dann stellt man recht schnell fest, auch im Mensch, oder jedem anderen Lebewesen muss es irgendwo ein statisch verknotetes Etwas geben, was unsere Handlungen vorgibt. So ist es ja auch. Wir haben das Bestreben zu überleben. Wir wollen uns fortpflanzen usw. Das kann man dann natürlich auch auf eine KI übertragen. Man baut einfach weitere Instinkte ein. Beispielsweise den Überlebensinstinkt. Der funktioniert sogar relativ simpel. Man muss nur den Energiespeicher überwachen und einen Schwellwert einbauen. Ab einer gewissen Spannung tritt der Instinkt, der Linie zu folgen, zugunsten des Überlebensinstinkt in den Hintergrund. Da könnte man die KI darauf trainieren, zum Beispiel ein Solarpanel möglichst gut zur Sonne auszurichten. Wäre auch kein grosser Aufwand, denn der Bot müsste sich dann nur entsprechend drehen.

    Wirklich knackig wird es aber dann, wenn man so einem Bot auch noch Neugier beibringen will. Dafür reicht dann ein Netz nicht mehr. Ausser man will eine statische Neugier, die man einprogrammiert. Das wäre aber langweilig. Also käme da ein weiteres Netz zum Einsatz. Möglichst auf einem eigenen Mikrocontroller. Das wird initiiert und kann dann von sich aus lernen, was den Bot neugierig macht und was nicht. Einfach Anomalien rein werfen und dann per Zufall entscheiden lassen, ob etwas interessant ist, oder nicht. Wenn zum Beispiel abseits der weissen Linie ein Fleck ist, der sonst nicht auftaucht, oder so. Man kann ja auch beim Mensch nicht sagen, warum der eine dies interessant findet und der andere nicht. Also wäre Zufall hier adäquat. So könnte die Neugier den Instinkt übersteuern und der Bot könnte über so eine Anomalie fahren. Ist seine Neugier befriedigt, also sind X Zyklen abgelaufen und die Neugier lernt, dass es gar nicht so interessant ist geht es zurück auf die Linie, oder zum aufladen.

    Das ist am Ende wirkliche KI. Ein Bot der nicht einfach stumpf das tut, was ein Programm ihm vorgibt, sondern der diverse Reize hat, auf die er individuell reagieren kann. Eben so, wie er es gelernt hat.

    Nach meiner Erfahrung heisst das aber, da sind viele Netze am Werkeln. Ein Netz für die Steuerung, eins für die Neugier, eins für Sensoren usw. Und trotzdem wird es am Ende ein Roboter bleiben. Denn auch wenn es Hollywood ja gerne anders zeigt, auch für Emotionen wie Freude und Hass müsste man ein eigenes Netz einbauen. Denn jedes Netz ist ja spezialisiert. Okay, man könnte natürlich ein pervers grosses Netz mit Milliarden von Neuronen basteln, wo man oben was rein wirft und unten kommt dann was selbst gelerntes raus. Aber dazu fehlt uns die Hardware. Ich glaube auch nicht, dass man so etwas mit einer ähm Von Neumann(?) Architektur auf die Reihe kriegt. Der Energiebedarf wäre abartig. Das wäre schon eher mit analoger Technik realisierbar. Die wäre dann aber abartig gross.

    Dinge wie ChatGPT sind eine wirklich beeindruckende Sache. Auch was die Erkennung von Strukturen und Objekten angeht, hat mich so manche KI schon stark beeindruckt. Zu nennen wäre da Deepfake. Damit haben wir selbst schon rum gespielt und ich hab aus meiner Tochter ihre lieblings Manga-Figur gemacht. Okay, mein Computer war da massiv an der Leistungsgrenze, aber funktioniert hat es trotzdem. Das ist schon sehr beeindruckend. Aber man sollte KI als einen eigenen Begriff ansehen und das "Intelligenz" nicht so wörtlich nehmen.

    Alles um dann zu merken, dass eine KI nicht der Weisheit letzter Schluss ist. Seitdem ich mich mit dem Thema befasse und hinter die Mechanik dahinter gekommen bin, hat mich schon einige Male der AHA-Moment erfasst. Gerade in der Hinsicht, dass viele sich ja sorgen machen, eine KI könnte zu viel lernen, ein eigenes Bewusstsein entwickeln usw. So interessant und vielversprechend die Technik auch ist und das ist sie definitiv, schlussendlich sitzt um so eine KI immer ein Programm drum rum, was die KI steuert.

    Gut zu sehen ist das im Film Baymax. Wenn man sich Baymax dabei wirklich ganz genau anschaut merkt man, egal wie menschlich er zu wirken scheint, er simuliert alles nur. Weder hat er ein eigenes Bewusstsein, noch macht er etwas gegen seine Programmierung. Bis zum Schluss ist er nur bemüht, den Gesundheitszustand seine Patienten zu verbessern.

    Die grösste Stärke eine KI ist auch ihre grösste Schwäche. Das lernen. Klar, bei ChatGPT wurde die KI mit unglaublich vielen Daten programmiert. Trotzdem lernt sie mit jeder Anfrage weiter. Genau da kommt dann das Problem ins Spiel. Man kann einer KI nicht sagen, dieses lernen ist gut, dieses ist schlecht. Erklärt man einer KI lange genug, dass 2+2=6 ist, wird sie es lernen und fortan ist dieses Ergebnis richtig und daraus leiten sich dann schnell weitere Fehler ab. Aktuell ist ChatGPT zu stark trainiert, um einfach so etwas falsches zu lernen. Aber irgendwann wird es irgendwelche Freaks geben, die es direkt drauf anlegen, irgendeinen Schwachsinn zu lehren. Oder, beim trainieren schleicht sich ein Fehler ein, der nicht entdeckt wird und dann seine Kreise zieht.

    Das habe ich in meinen eigenen Experimenten selbst lernen müssen. Ich spiele immer mal wieder mit neuronalen Netzwerken. Dabei habe ich selbstverständlich nicht solche Datensätze zur Verfügung, wie Google oder Microsoft. Bei mir fällt falsches Training sehr schnell auf. Mein bisher bestes neuronales Netz war so angelegt, dass es in einer Art virtuellem 2D Raum Energiepunkte einsammeln musste. Das Netz hat dabei einen einzelnen Punkt gesteuert, der ein gerades Sicht von 4 Punkten in Bewegungsrichtung hatte. Der Punkt konnte sich um jeweils 90 Grad drehen und ich in Bewegungsrichtung immer um einen Punkt bewegen. Es gab einen Rand, Hindernisse und Energiepunkte. Als Motivation habe ich den Instinkt verwendet, die eigene Energie zu erhöhen. Das war alles. Den ganzen Rest musste das Ding selbst lernen. Also erst seine Fähigkeiten bis hin zu dem Verhalten zu suchen, sein Suchverhalten zu optimieren und das es bei den Energiepunkten seinen Instinkt befriedigen kann.

    Soweit so gut. Das hat auch tatsächlich oft funktioniert. Meine beste KI dabei konnte sich über 2 Stunden erfolgreich am Leben halten. Es war auch hoch interessant zu beobachten, wie das suchen immer effizienter wurde. Wie die KI bereits abgewanderte Regionen erst dann wieder bewandert hat, wenn in den noch nicht besuchten Bereichen nichts zu finden war usw.

    Doch während man bei einem statischen Algorithmus alle Fehler irgendwann ausgemerzt hat, ist es bei einem neuronalen Netz eben nicht so. Gerade wenn es selbstständig dazulernen soll, was ja der eigentliche Grundgedanke dahinter ist, lernt es immer weiter und das mit der sogenanten Backpropagation of Error Methode. Das heisst, wenn nach einem Durchlauf das Ergebnis nicht so ist, wie es sein soll, werden die Gewichte rückwärts angepasst. Als Beispiel, wer damit nichts anfangen kann, wenn man 2+2 in das Netz eingibt und hinten kommt 5 raus, dann stimmt das natürlich nicht. Dann wird 4 als Ergebnis genommen und die Gewichte so lange angepasst, bis bei der Eingabe 2+2 raus kommt.

    Das funktioniert in der Regel auch beeindruckend gut. Aber nie zu 100%. So kommt bei 2+2 am Ende dann 3,9999999998 raus, oder so etwas.. Das ist ausreichend genau, kann man ja schliesslich runden. Genau da ist aber auch das Problem. Beim anpassen der Gewichte ist immer irgendwo ein nicht so ganz genauer Wert dabei. Meine KI hat dann immer wieder etwas gelernt, was eigentlich nicht richtig war. Das hat sich dann quasi aufgeschaukelt und irgendwann ist sie dann zielstrebig auf Hindernisse zu, anstatt zu den Energiepunkten. In meinem Fall konnte ich das recht einfach beheben. Es war ja ein klares Ziel defininiert und wenn klar war, dass die aktuelle Handlung das nicht erreichen kann, wurde es als Fehler angesehen und weiter gelernt.

    Mach das mal bei einer KI wie ChatGPT. Dem kann man nicht einfach sagen, diese und das ist falsch. Klar, durch den massiven Einsatz von Testdaten wird es immer unwahrscheinlicher, dass da Schwachsinn gelernt wird. Es gibt aber Individuen, die einen riesigen Spass daran haben, so einer KI mit Absicht dummes Zeug beizubringen. Das ist natürlich nicht einfach, gerade auch, weil man ja echte Telefonnummern verwenden muss. Doch da ist etwas, was so einer KI nach wie vor um Welten voraus ist. Das Vorbild, also unser Gehirn. Wenn es also wirklich ein Hacker mal darauf anlegt, ChatGPT, oder eine entsprechende Anwendung zu stören, dann findet der einen Weg. Botnetze sind ja dank WiFi-Glühbirnen und ähnlichem heute so gigantisch wie nie zuvor. Wenn dann ChatGPT einmal Blödsinn in seinen Synapsen hat, dann wird es verdammt schwer, den wieder zu entfernen. Wenn nicht sogar unmöglich und man muss ein Backup einspielen. Dort sind dann aber viele Lernfortschritte nicht vorhanden.

    Also ich denke mal, was derzeit wie die intuitivste Technik überhauptanmutet, wird sich in naher Zukunft als Problemfall herausstellen. Was allerdings nicht heisst, dass man aktuell mit den Aktien echt fette Kohle verdienen kann, oder konnte.

    Aber Steam selbst, so glaube ich, entwickelt nur für Windows und Mac.

    Das ist nicht korrekt. Steam entwickelt für Linux und das ziemlich intensiv. Alleine ihre Wine-Umsetzung Proton ist extrem gut und verhilft vielen Anwendungen, auf Linux sehr gut zu laufen. Auch versucht, oder versuchte, Steam die Entwickler von Spielen, die ihre Spiele unter Steam zur Verfügung stellen dazu zu bewegen, auch eine Linux-Version bereitzustellen oder zumindest dafür zu sorgen, dass es reibungslos mit Proton läuft. Das Steamdeck läuft ebenfalls mit Linux.

    Was nun aber Flatpak anbelangt. Der Gedanke ist gut, die Umsetzung oft schlecht.

    Das die Programme meist deutlich größer sind als ihre "normalen" Repository Gegenstücke hat mich nicht gestört

    Die müssen ja grösser sein, schleppen sie ja ihre eigene Distro mit. Das ist mir in meinen Anfangszeiten von Arch aufgefallen. Immer, wenn es ein Update von Nvidia-Treibern gab, lief Steam nicht mehr, da ich es unter Flatpak installiert hatte und das ebenfalls ein Update benötigte, um den neuen Nvidia-Treiber zu installieren. Muss man aber auch erst einmal wissen. Der unbedarfte User installiert etwas über Flatpak und da er die Technik dahinter nicht versteht, versteht er auch nicht, warum da auf einmal etwas nicht mehr funktioniert.

    Ich habe mich dann erst einmal genauer mit Flatpak auseinandergesetzt und verstanden, wie es überhaupt funktioniert. Die Idee dahinter ist ja auch durchaus interessant. Du musst dein System nicht mit irgendwelchem Kram voll müllen. Werden die Flatpak Pakete auf einer anderen Platte installiert, wie das System selbst, kann man das auch neu installieren, oder eine andere Distro verwenden und nach der Installation von Flathub und eventuell dem anpassen der Installationspfade, laufen die bereits installierten Pakete ohne Neuinstallation wieder. Auch im Bereich der Sicherheit ist es interessant. Denn nutzt man ein Paket aus Flatpak, läuft das ja in seiner eigenen Maschine und wenn es in der Software Schwachstellen gibt, dann hat ein Angreifer nur Zugriff auf diese eigene, kleine Welt. Es gibt zwar Möglichkeiten aus so einem Container auszubrechen, aber dafür muss der Angreifer das auch erst verstehen und auch umsetzen.

    Genau da ist aber auch das Problem. Will man zum Beispiel etwas sicher, muss man erst einmal herausfinden, wo es überhaupt gespeichert ist. Ich wollte zum Beispiel bei Ark meine Spielstände von den lokalen Spielen sichern und musste erst mühsam suchen, wo die überhaupt gespeichert werden. Oder, man lädt etwas über einen in Flatpak installierten Browser runter. Das muss man dann auch erst suchen gehen.

    Auch die beschriebenen Probleme mit dem speichern von Einstellungen. Wird so ein Paket gestartet, dann in aller Regel in seiner Grundkonfiguration. Will man, dass Einstellungen und ähnliches erhalten bleiben, muss man die entsprechenden Pfade auf das eigentliche System umleiten. Das macht aber wieder die Idee kaputt, man könnte ja eigentlich die Distro wechseln und hinterher läuft wieder alles.

    dennoch denke ich das je nach Distro ein flatpak Sinnvoll sein kann, als Beispiel Gimp, libreoffice usw. Gerade bei LTS distros

    Da gebe ich dir vollkommen Recht. Auf die Art kann man neue Versionen, die noch nicht so gut abgehangen sind, wie Debian es ja gerne hat, installieren, ohne Gefahr zu laufen, dass man sein System instabil macht. Im schlimmsten Fall crasht dann eben nur dieses Paket und man kann es wieder entfernen. Schlussendlich sind hier aber die wirklichen Vorteile auch schon erschöpft. Gerade, wenn man eine aktuelle Distro wie beispielsweise Arch einsetzt, hat man eigentlich immer die aktuellsten Versionen von Programmen. Gerade Arch zeigt hier auch, dass man Pakete auch vollständig wieder entfernen kann. Etwas, was zum Beispiel Gentoo nicht wirklich auf die Reihe kriegt. Installiert man da etwas und will es hinterher wieder loswerden, dann muss man alle Abhängigkeiten auch deinstallieren. Arch kann das von sich aus. Wobei Arch jetzt nur als Beispiel dient und nicht implizieren soll,, dass Arch das Non+Ultra ist.

    Das ein Konzept wie Flatpak auch gut funktionieren kann, zeigt in meinen Augen Docker. Meine Server zum Beispiel haben nur die Grunddistro mit ein wenig Zusatzsoftware wie eben docker, docker-compose, git und ähnliches. Meine Container haben dabei alle ihr eigenes Verzeichnis, in dem sie auch ihre Daten speichern. Hier funktioniert das. Als ich meinen Pi3 von MicroSD auf SSD umgestellt habe, wobei die Docker-Container auf einer externen HDD gespeichert sind, konnte ich diese im Anschluss einfach starten. Okay, die Images mussten noch geladen werden, aber danach lief alles sofort so, als wäre nie etwas geschehen. Auch hat Docker den Vorteil, gerade mit docker-compose, dass bei jedem Start das Image geprüft und bei Bedarf aktualisiert wird.

    Docker hat aber gegenüber Flatpak auch einen Nachteil. Da hat man keine GUI. Zumindest habe ich noch kein Programm gesehen, welches eine hätte und auch bei meinen eigenen Images war ich noch nicht dazu in der Lage, ein GUI einzubauen. Natürlich kann man das über einen Browser machen. Portainer zum Beispiel kann man problemlos per Browser erreichen und grafisch verwenden. Oder NextCloud, OctoPrint, Homeassistant usw. Da ich aber Saas nicht als der Weisheit letzter Schluss halte, muss man schliesslich auch für kleine Anwendungen immer einen fetten Browser starten, ist das für mich nur halb optimal.

    Um jetzt die Frage des Threads zu beantworten. Fluch, oder Segen? Das hängt wohl immer stark davon ab, was man haben will, wie man es einsetzt und wie gross die Bereitschaft ist, sich den kleinen Umwegen zu widmen. Auch ist immer die Frage, wie sinnvoll es ist. Unter Mint zum Beispiel kann es durchaus ein Segen sein. Unter Arch macht man sich oft nur Umstände, die sinnlos sind. Warum sich um die Umwege kümmern, um aktuelle Versionen zu haben, wenn man die auch so kriegen kann, ohne Umwege?

    Ich will es mal so beantworten, also aus meiner Sicht. Flatpak, Snapd und Docker sind sehr gute Konzepte. Alle haben ihre Stärken und Schwächen und in jedem Fall sollte man die Technik, die dahinter steck, verstehen und verwenden können. Dann weiss man auch, ob man es braucht, oder eben nicht. Gerade im Punkt Sicherheit können diese Konzepte punkten. Auch im Bereich von Software, die unter Umständen nicht mehr weiterentwickelt werden. Sollten die nämlich auf Abhängigkeiten aufbauen, was ja eigentlich mittlerweile alle tun, die dann weiterentwickelt werden steht man manchmal vor der Frage, ist mir die Software so wichtig, dass ich die veralteten Versionen der Abhängigkeiten beibehalte? Mit den genannten Konzepten stellt sich diese Frage nicht. Da kann man die selbe Abhängigkeiten für jedes Paket in der benötigten Version installiert haben.

    Also für diejenigen, die sich die Mühe machen, hinter die Funktionsweise einer der Techniken zu schauen, kann es absolut ein Segen sein. Egal welche davon. Wer aber einfach nur installieren und benutzen will, der fängt schnell an zu stolpern und es wird zum Fluch. Keines der Konzepte ist die eierlegende Wollmilchsau.

    Ja, da kann ich dir nicht widersprechen. Ich bin ja auch auf D.tube unterwegs und unter den Top Videos ist viel Blockchain Zeugs.

    Das Problem ist auch, in vielerlei Hinsicht sind Abonnenten oft mit Groupies vergleichbar. Egal was der entsprechende Youtuber postet, die singen Lobeshymnen drauf. Ich muss betteln, dass mal jemand Namensvorschläge für die Dinos abgibt.

    Die Sache ist aber auch nicht ganz ungefährlich. Hat jemand eine gewisse Zahl an Anhängern, der Begriff ist bewusst gewählt, wird seine Meinung zu einem Gebot. Das habe ich in den Anfangszeiten der E-Zigaretten deutlich gesehen. Du konntest das beste Material im Shop haben, wenn ein entsprechender Youtuber gesagt hat, ihm gefällt das nicht, hast du von dem Zeugs nichts verkauft. Da war es dann sehr sinnvoll zu warten, welche Produkte der als toll angepriesen hat und die dann in den Shop zu nehmen. Die gingen dann auch. Selbst wenn es so ein Quatsch war wie die Evig, wo du nebenbei auf dem Display noch irgendwas spielen konntest und so. Oder Akkuträger wie die Provari. Sündhaft teuer, immer als unkaputtbar angepriesen, dann aber Videos, wie man sie repariert veröffentlicht. Hauptsache aber mal 200€ für so ein Ding ausgegeben.

    Wo ich aber Zuschauern und Abonnenten absolut etwas positives nachsagen kann, die sind hilfsbereit. So habe ich schon ein paar Dinge von einem Zuschauer gesponsert bekommen, damit ich damit Videos machen kann. Also nicht das ich irgendein Produkt damit bewerben soll. Aber mein aktuelles Projekt, wo ich den Competition Pro Joystick nachbaue, da wurden mir die Teile für finanziert. Ohne das ich Namen nennen soll, oder einen Shop, oder was auch immer. Das finde ich richtig toll. Wenn man bedenkt, dass es mittlerweile zum Alltag geworden ist, dass man jeden Cent zurückfordert, ist das wirklich erstaunlich und ich finde auch, so etwas verdient Anerkennung.

    Youtube ist auch wieder so eine Sache wie alles im Internet. Man ist davon abhängig, dass man gefunden wird. Als ich noch meinen Shop hatte war ich preislich und qualitativ gut aufgestellt. Solange ich für meine Produkte auch noch Werbung machen konnte, lief alles ziemlich gut. Aber dann hiess es auf einmal, anstatt Werbung brauche ich jetzt SEO. Da spielt es dann überhaupt keine Rolle, wie gut die Produkte sind. Es ist nur noch wichtig, wer gibt mehr Geld für SEO aus und da konnte ich mit den grossen Shops einfach nicht mithalten. 50€ im Monat waren für mich schon viel, die haben 5.000€ ausgegeben und Zack fand man mich nur noch auf Seite 10 oder so und so weit blättert natürlich keiner.

    Bei Youtube ist es noch etwas komplizierter. Da kann schon ein reisserischer Titel die Vorschläge beeinflussen. Haut man zum Beispiel Begriffe wie Mysteriös, Spektakulär oder Unglaublich in den Titel, beeinflusst das schon den Algorithmus. Ist der dann aber der Meinung, der Titel passt nicht zum Content, wird man gar nicht gefunden. Auch spielt es eine Rolle, wie regelmässig man etwas veröffentlicht. Dann die Anzahl der Kommentare, die Däumchen usw.

    Solche Tools können da sicherlich helfen. Ich denke aber auch, da wird es am Ende dann wieder sein wie bei SEO. Wer mehr ausgibt, der wird besser gefunden.

    Am Effektivsten bleibt aber, man muss nur einen grossen Youtuber finden, der den eigenen Kanal mal irgendwo erwähnt, dann knallt es. Durch die Erwähnung gehen die Views hoch, die Daumen, die Kommentare. Aber so einen finden ist auch nicht einfach. Da heisst es dann wieder Content produzieren, der so gut ist, um so einen Youtuber zu überzeugen.

    Alles nicht so einfach.

    Sicher, das Einrichten ist noch mal was anderes

    Japp, mit dem Einrichten muss man sich beschäftigen. Hier schlagen die 1.000 Möglichkeiten gerne mal um sich. Gerade weil alles, was man installiert, immer in der Grundkonfiguration kommt. Da ist Cinnamon nicht gerade hübsch, AwesomeWM kann praktisch gar nichts, Xfce ist für Umsteiger etwas verwirrend usw. Dazu kommt dann noch, dass sich nicht jeder Desktop auf die gleiche Weise anpassen lässt. Die einen haben dafür extra eine einzige Konfiguration, andere wollen alle Komponenten einzeln angepasst haben. Themes installieren sich unter Xfce ganz anders als unter Cinnamon usw. Manche Desktops wollen speziell lokalisiert werden, andere nehmen es aus der Systemkonfiguration. Vorinstalliert ist gar nichts.

    Für mich ist das ein fettes Plus, da ich ja selbst entscheiden will, was ich im System habe und wie das am Ende optisch aussieht. Ein Umsteiger oder Einsteiger denk sich nur "Das ist aber so gar nicht komfortabel und sieht mies aus".

    Das ist aber interessant zu beobachten. User, die ein System installieren und einfach nur damit arbeiten wollen, fühlen sich bei Distros wie Mint sehr wohl. Die, für die ihr System etwas individuelles ist, kommen irgendwann zu einer Distro wie Arch, wo sie alles selbst einrichten. Das halte ich für eine grosse Stärke von Linux. Man hat die Wahl. Es ist aber auch eine Schwäche, denn diese Wahl kann Umsteiger und Einsteiger ganz gerne mal überfordern.

    Das war auch nicht auf dich im speziellen bezogen. Für viele ist der Desktop aber fest mit dem Betriebssystem verbunden. Ist ja auch bei den meisten Betriebssystemen so. Deshalb füge ich es gerne an und zeige auch immer wieder, dass es unter Linux ganz normal ist, auf Wunsch seinen Desktop zu ändern oder mehrere parallel zu betreiben.