Beiträge von Casali

    Fangen wir mal von unten an.



    Das Tool habe ich inzwischen deinstalliert,


    Na dann weißt du nun zumindest, dass es, allen Unkenrufen zum Trotz, nicht daran liegt.



    Ich habe ein WLAN-Modem und keinen Router.


    Hier irrst du sicher. Du hast bestimmt einen WLAN-Router. Aber das ist sehr wahrscheinlich egal.


    Wie ich oben schon geschrieben habe, hast du vielleicht gar kein Problem. Es spricht einiges dafür, dass der Unterschied nur durch das Cachen zustande kommt.
    Webseiten, wie die von dir genannten, ändern sich ständig. Wenn du gestern gmx aufgerufen hast und jetzt wieder, dann hat sich der Inhalt der Seite inzwischen verändert. Das heißt, der Firefox muss neue Inhalte aus dem Web nachladen.
    Rufst du die Seite dann sofort wieder auf, hat sie sich nicht oder nur wenig verändert. Dann kann der Firefox die Daten (z.B. Bilder) direkt aus seinem Cache abrufen und muss sie nicht aus dem Web laden. Das geht natürlich schneller. Dafür ist der Cache ja da. Das kann schon einen spürbaren Unterschied ausmachen.


    Wenn du das überprüfen willst, dann kommst du um eine Messung nicht herum. Du musst dazu zunächst auch nichts Komplexes auswerten. Wiederhole einfach morgen deinen Test und schaue unten auf die Ladezeit. Dann siehst du, wie groß der Unterschied überhaupt ist. Siehe zusätzlich nach, wie viele Elemente aus dem Cache geladen wurden. Das steht jeweils in einer Spalte zu jedem Element dabei. Achte besonders auf große Inhalte, wie z.B. Grafiken.
    Dann ruft du die Seite erneut auf. Wenn mein Verdacht stimmt, dann wirst du nun sehen, dass mehr Objekte aus dem Cache geladen wurden als vorher.


    Sofern der Cache nicht beim Beenden des Firefox gelöscht wird, kannst du auch einen noch einfacheren Test machen. Starte den Firefox und rufe gmx auf. Notiere dir die Ladezeit. Die Seite ist nun im Cache. Beende den Firefox, starte ihn neu und rufe die Seite erneut auf. Die Ladezeit sollte sich jetzt nicht sehr unterscheiden.


    Was ebenfalls eine Rolle spielen könnte, wäre, wenn der Firefox unmittelbar nach dem Start noch andere Dinge zu erledigen hat. Das könnte so etwas sein wie das Initialisieren von Add-Ons, das Senden eines Pings an Mozilla usw. . Dazu kann ich aber nichts sagen, weil ich solche Interna des Firefox nicht kenne.


    Du meinst vermutlich signieren und nicht zertifizieren lassen.


    Ja klar, so wie in der Überschrift auch erwähnt. Da war der Freud nur schneller als ich.



    Mit welcher Begründung möchtest du das nicht?


    Das hat mit der Art der Erweiterung zu tun, die mir vorschwebt. Solche Netzwerkkomponenten, um die es mir geht, hat man nicht im Keller stehen. Der eine oder andere hat zuhause, so wie ich, vielleicht einen einen kleinen manageable Switch mit 8 bis 24 Ports aber sicher kein größeres Netzwerk oder gar Fabrics. Die typischen Consumer-Produkte, wie eine Fritzbox oder ein Netgear Switch für 50 Euro, beherrschen ja nicht einmal SNMP.


    Mein Arbeitgeber ist so freundlich und erlaubt mir, eines unserer Test-Labs zu benutzen. Da habe ich alles, was das Herz begehrt. Gemäß der Firmenpolicy ist es mir nicht gestattet, irgendetwas nach außen zu senden, auch nicht an einen Automaten. Ich müsste dann also bei jeder noch so kleinen Änderungen zunächst im Lab testen, die Erweiterung dann von zuhause aus signieren lassen und könnte sie dann am nächsten Tag auch in der Firma benutzen. Das ist mir zu aufwendig und zeitraubend.


    Ansonsten vielen Dank für die Antworten. Das hilft mir schon mal weiter. Ich werde mich sicher mit einer der Lösungen arrangieren können. Zumindest für die Entwicklung werde ich wohl parallel die ESR installieren.

    Ich möchte meinen Firefox um eine Funktion erweitern. Konkret möchte ich eine Möglichkeit implementieren, um Statusinformationen diverser Netzwerkkomponenten per SNMP abzufragen (nur get) und dann in einem Tab aufbereitet darzustelllen.


    Ich möchte das nicht per Script sondern in Form einer Erweiterung umsetzen. Das würde eine private Erweiterung sein. Ich habe also nicht vor, sie zu veröffentlichen und per AMO zu verteilen.


    An dieser Stelle erweist sich die durchaus sinnvolle Pflicht zur Signierung nun als kleines Hindernis. Soweit ich gelesen habe, lässt sich das in den offiziellen Versionen nicht mehr deaktivieren. Mir sind von https://wiki.mozilla.org/Add-o…_Signing#Unbranded_Builds folgenden Möglichkeiten bekannt:


    • Einen Account bei AMO anlegen und die Erweiterung zertifizieren zu lassen, ohne sie zu veröffentlichen. Das möchte ich nicht.
    • Einen unbranded oder einen Dev-Build zu verwenden.
      Das könnte durchaus eine Option sein. Meine Frage dazu wäre, ob diese Builds dem automatischen Update unterliegen und falls nicht, wie zeitnah zu den offiziellen Versionen diese üblicherweise verfügbar sind.
    • Möglicherweise die ESR-Versionen. Die oben genannte Seite ist hier jedoch nicht ganz eindeutig. Dort steht

      Zitat


      The first ESR version to include signing support will be the Firefox ESR 52 release.


      Etwas weiter unten findet sich dann

      Zitat


      What about private add-ons used in enterprise environments?


      The ESR release supports signing starting with version 45-based releases. Signing enforcement is enabled by default in these releases, and enforcement can be disabled using the xpinstall.signatures.required preference.


      Abgesehen von den unterschiedlichen Versionsnummern, ist meine Annahme richtig, dass sämtliche ESR-Version ab der 52 die Möglichkeit bieten, unsignierte Erweiterungen zu installieren?


    Falls es noch eine weitere Möglichkeit gibt, bitte her damit. Danke!

    Also, ich kann dir nicht versprechen, das Problem zu lösen. Ich möchte dir aber eine mehr analytische Herangehensweise empfehlen. Das beginnt mal zunächst bei der Fehlerbeschreibung. Die ist noch immer recht ungenau.


    Beim Letzteren stelle ich fest, dass er nach dem Neustarten des Browsers recht lange braucht, um die Seiten zu laden. Wenn ich dieselben Seiten im neuen Reiter - bei vorhin geöffnetem Browserfenster - laden lasse, geschieht das viel schneller.


    Du sprichst hier von Seiten, im Plural. Bedeutet das, dass du beim Start die letzte Sitzung wieder aufrufst? Weiter, was genau meinst du mit "dieselben Seiten" (Plural) "im neuen Reiter" (Singular)"? Ist das vielleicht ein Lesezeichenordner, den du komplett über "Alle in Tabs öffnen" öffnest? Oder wie gehst du vor?



    Fazit ist, dass der langsam empfundene FF sogar gefühlsmäßig gar nicht viel langsamer ist als die beiden anderen Tests.


    "Empfundene" und "gefühlsmäßig" sind sehr subjektive Begriffe. Versuche also, etwas mehr Objektivität durch Messung zu gewinnen. Führe am besten sämtliche Tests mit einem neuen Profil durch, ohne jede Erweiterung. Es könnt durchaus sein, dass dein Problem gar keines ist, weil der Firefox weite Teile der Seiten beim erneuten Aufrufen aus dem Cache holt. Das geht natürlich schneller, als die Inhalte neu aus dem Web zu laden.
    Unter Extras - Webentwickler findest du Tools, mit denen du das Laden der Seiten messen kannst. Vorweg, das musst du bitte selbst oder mit Hilfe anderer auswerten. Ich habe weder Muße noch Zeit, seitenlange Reports zu vergleichen.
    Unter Netzwerkanalyse kannst du zum Beispiel die Gesamtladezeit direkt sehen. Auch ob die Daten aus dem Cache kommen oder aus dem Web siehst du dort. Ich weiß leider nicht, ob man den Firefox gleich mit geöffneten Entwicklertools starten kann, um die Ladezeiten beim Start zu sehen. Das weiß aber vielleicht jemand anderes hier.



    ich habe es nicht genau beobachtet, aber ungefähr seit der Version 57.0.1 und meinem neuen WLAN-Modem. Ob es irgendwie zusammenhängt?


    Hast du den Begriff "Modem" bewusst gewählt? Hast du tatsächlich zwei Geräte, sprich ein Modem und einen Router? Oder gar einen Proxy? Oder meintest du einen DSL-, Kabel- oder LTE-Router?
    Der ist als Verursacher nicht sehr wahrscheinlich. Weshalb sollte der eine Seite stets beim zweiten Mal schneller laden als beim ersten Mal? Es sei denn, er hätte einen eigenen Cache für Inhalte, quasi wie ein Proxy. Das solltest du überprüfen, also die Fähigkeiten des Routers und die Proxy-Einstellungen.
    Ein Router hat in den meisten Fällen zumindest einen Cache für den DNS. Falls er keinen hat oder wenn der Router diesen Cache aus irgendeinem Grund nicht länger halten kann, könnte das ebenfalls ein schnelleres Laden beim zweiten Mal erklären. Das läge im Bereich einiger Millisekunden. Ich kann mir nicht vorstellen, dass du das bemerken würdest.


    Zum SUPERAntiSpyware. Das Tool ist noch nicht raus. Es hat offenbar doch eine Echtzeitüberwachung, auch wenn die vorrangig bei der Installation von Programmen greifen soll. Aber wer weiß. Eine Deinstallation für einen Test wäre deshalb einen Versuch wert.
    Ich möchte damit nicht sagen, dass du auf dieses Tool verzichten sollst. Wenn es sich als Verursacher herausstellen sollte, musst du vermutlich nur dessen Konfiguration anpassen. Ähnlich, wie bei AV-Programmen, die in der Basiskonfiguration immer wieder mal Probleme machen können.
    Ich kenne das Programm nicht aus eigener Erfahrung und kann mich deshalb nicht qualifiziert dazu äußern. Ich weiß aber, dass es bereits seit 2004 auf dem Markt ist und es auch in einigen großen Unternehmen im Einsatz ist. Wie jedes Tool dieser Art hat es sicher seine Vor- und Nachteile.
    Wie du den Rat von Boersenfeger zu beurteilen hast, der das Programm nicht einmal kennt, musst du selbst einschätzen. Mit der gleichen Logik könnte man aber auch dem VW-Konzern raten, auf ihr ERP zu verzichten. Nur weil man nicht weiß, was das ist. Außerdem könnte man SAP ja für die Abkürzung von Super Antimalware Programm halten. ;)


    Diese Zeile habe ich dummerweise vor der Zeile mit dem Eintrag "127.0.0.1 localhost ::1 localhost" gesetzt.


    Die Angaben zu localhost sind überflüssig. Das löst das DNS ganz von allein auf. Das steht übrigens auch im Kommentar der von Windows selbst angelegten hosts.


    Code
    # localhost name resolution is handled within DNS itself.
    #	127.0.0.1       localhost
    #	::1             localhost

    genetic,
    ein portabler Firefox lässt sich in 5 Minuten sehr einfach selbst erstellen. Man benötigt dazu keinen extra Loader. Benutzt du dazu den aktuellen Firefox, dann ist auch das Icon aktuell. Für die Startdatei kann es frei gewählt werden.
    Eine Anleitung gibt es z.B. hier:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Auch auf die Gefahr hin, dass es in einem Unterforum "Anpassungen" nicht gern gesehen wird: Ich würde beim besten Willen nicht auf die Idee kommen, den Firefox per Script aufzublasen und ihn als Backup-Programm zu missbrauchen. Nicht alles, was geht, ist auch sinnvoll.
    Wenn es nur als zusätzliches, schnelles Backup gedacht ist, weil man vielleicht gerade etwas testen möchte, dann würde ich das lieber rasch manuell erledigen. Käme das häufig vor, dann würde ich ein übliches Zip-Programm benutzen und es über eine entsprechende Verknüpfung mit den richtigen Startparametern aufrufen. Das ist in 2 Minuten eingerichtet und benötigt zum Start gerade mal einen Doppelklick. Dafür kommt man ohne Script aus, von dem niemand weiß, ob es mit den nächsten Versionen des Firefox überhaupt noch laufen wird.


    Möchte man kein zusätzliches Zip-Programm installieren sondern das von Windows nutzen, dann wäre das etwas umständlicher, doch über die integrierte Powershell ginge auch das.


    Ich möchte diesen Thread nun nicht für eine Diskussion missbrauchen. Mein Beitrag soll bitte nur als Gedankenanregung verstanden werden.


    Es geht hier nicht um die gleichnamige Erweiterung vom Autor.


    Das war mir so nicht klar. Ich dachte, es ginge vorrangig darum, eine gewünschte Funktionalität zu erreichen. In der Tat habe ich über die Seite des Autors die gleichnamige Erweiterung gefunden, die in diesem Monat ein Update erfahren hat und mit dem Firefox 57 kompatibel ist.
    Ich würde eine Erweiterung auch einem Script vorziehen. Aber wenn es denn unbedingt ein Script sein muss, dann sollte es nach etwas Einlesen möglich sein, die notwendigen Änderungen dem Code der Erweiterung zu entnehmen.


    Im Automatik-Modus pendelt sich Qupzilla bei etwas über 2500 Fische ein.


    Ah, den Automatikmodus hatte ich nicht ausprobiert. Der dauert zu lange. :wink: Damit kommt man tatsächlich über die maximal 2000 hinaus, die im Drop-Down Menu angeboten werden.


    Ich habe das gerade unter Windows nachgeholt. Dort ist bei mir der Firefox der Spitzenreiter. Es schafft 2800 Fische, Vivaldi und Chrome nur 2000, der Edge sogar nur 1000.
    Allein, es hilft nichts für die Freunde des Linux. Ohne die Hardwarebeschleunigung bleibt es dort bei etwa 7.


    Vielleicht schaue ich mir im neuen Jahr Qupzilla doch mal wieder an. Eigentlich ist der aber keine wirkliche Option für mich. Ich benutze zwar nur sehr wenige Erweiterungen, aber diese paar und Sync würden mir sehr fehlen.


    Ich denke für mich mal, daß es nicht direkt am FF liegt


    Ich bin mir ziemlich sicher, dass es allein am Firefox liegt. Genauer: daran, dass die Hardwarebeschleunigung unter Linux nicht funktioniert.
    Ich habe dazu viel im Internet gesucht und auch Kollegen befragt, die ebenfalls Linux verwenden. Sie bestätigen das alle, egal ob sie Ubuntu, Kubuntu, Xbuntu, SUSE oder ein anderes Derivat verwenden. Bei allen zeigt der Firefox "Acceleration blocked by platform", und die Performance ist entsprechend schwach. Es muss ja alles allein von der CPU durchgeführt werden.


    Die auf Chromium basierenden Browser können die zusätzliche Leistung der Grafikkarte hingegen auch unter Linux nutzen. Daher stammt die Leistungsexplosion, welche die von mir befragten Kollegen ebenfalls alle bestätigen.
    Schaltet man die Hardwarebeschleunigung im Firefox unter Windows aus, bricht auch dort die Performance ein und liegt im Bereich dessen, was sich unter Linux ergibt.



    Qupzilla ist mit 2500 Fischen viel schneller als FF mit 30 -40.


    Da hast du sicher einen Tippfehler, denn mehr als 2000 Fische lassen sich bei dem Test gar nicht einstellen. :D




    FF läuft mit GTK, Qupzilla hingegen mit QT.


    Das spielt meiner Meinung nach keine große Rolle. Mit dem Qupzilla habe ich selbst nicht getestet. Aber mit Chrome und Vivaldi. Deren Werte unterscheiden sich praktisch nicht.
    Der entscheidende Faktor ist wohl der, dass die QtWebEngine und damit Qupzilla ebenfalls auf Chromium basieren. Genau wie Chrome und Vivaldi hat er damit die Fähigkeit der Hardwarebeschleunigung einfach geerbt und erreicht deshalb auch gleich gute oder sogar etwas bessere Werte. Siehe beim Autor:


    Zitat


    12. Does QupZilla support the blink web rendering engine used in Chromium?


    QtWebEngine is a new web engine based on Chromium, adopted for use within Qt, which has been introduced in the Qt-5.4 series. Given the fact that Chromium uses multi-process architecture, a lot of the API is now asynchronous (instead of synchronous as in QtWebKit). As a consequence a lot of advanced features in QupZilla had to be adapted due to this change. As of QupZilla 2.0.0 it uses QtWebEngine only.


    Quelle: https://github.com/QupZilla/qu…g-engine-used-in-chromium

    Harry und andere interessierte Linuxer ...


    Ich habe nun doch der Versuchung nicht widerstehen können, mir zumindest WebGl zu ermöglichen, und habe die 70 Euro und zwei Stunden Freizeit für eine 1030 investiert.




    Das Ergebnis ist wie erwartet: WebGL lässt sich nun auch unter Linux aktivieren. Das ist gut. Generell hat sich die Grafik- und Browser-Leistung merkbar verbessert. Das ist auch gut, gilt aber leider nicht für den Firefox unter Linux.


    Heute hatte ich bisher einen sehr ruhigen Arbeitstag. Die Gelegenheit habe ich genutzt und nebenbei einige Benchmarks durchgeführt. Ich habe dazu den Firefox 57 und den aktuellen Vivaldi 1.13.1008.40 benutzt. Beide mit neuen Profilen, ohne Erweiterungen.


    Ich habe zunächst die HTML5 Performance getestet, unter anderem mit dem 3D-Benchmark https://www.wirple.com/
    Dabei zeigt sich kaum ein Unterschied zwischen Windows und Linux. Das freut mich.
    Zwischen dem Firefox und den Chromiums zeigt sich allerdings einer. Die Chromiums erreichen unter beiden Betriebssystemen die besseren Werte, etwas das Doppelte. Interessanterweise fällt dieser Unterschied unter Linux etwas geringer aus.

    Was mehr wehtut, das ist die nach wie vor die fehlenden Hardwarebeschleunigung. Die wird unter Linux auch mit dieser aktuelle Karte nicht bzw. nur sehr, sehr schlecht unterstützt. Das bestätigt erneut die Vermutung, dass Firefox dies für die Plattform Linux generell nicht beherrscht.
    Das Erzwingen über den Schalter bringt ein paar ganz wenige fps, wie schon von Harry erwähnt. Eine kleine Auswirkung lässt sich feststellen. Bei mir zeigten sich aber unerwünschte Nebenwirkungen. Das Einschalten lohnt sich deshalb für die wenigen fps nicht.


    Die Ergebnisse (fishbowl, auf einem älteren i5 @3,2 MHz):


    Unter Windows schaffen Firefox und Chrome/Vivaldi die Maximalanzahl von 2000 Fischen mit vollen 60 fps. Das war mit meiner alten Karte bei weitem nicht drin. Unter Linux zeigen sich dann aber leider die zwei Welten.


    Volle 60 fps
    Vivaldi schafft 1000 Fische, Firefox schafft weniger als 10.


    Als Nicht-Gamer ist das für mich kein Beinbruch. Wer Linux benutzt und sich über die Vorteile freut, weiß auch mit der einen oder anderen Einschränkung zu leben.
    Aber es fuchst mich doch, denn diese im Vergleich sehr viel schwächere Performance des Firefox ist im Alltag deutlich wahrnehmbar. Der Leistungsunterschied wird größer, desto besser die verwendete Grafikkarte ist. Man benötigt auch keine Benchmarks. Wenn man ein, zwei Stunden mit Chrome oder Vivaldi unterwegs ist und dann auf den Firefox wechselt, bemerkt man das sofort. Man muss dazu auch keine Browser Games spielen. Ganz normale Webseiten genügen.


    Schade, aber das ist wohl derzeit nicht zu ändern.

    Ich habe noch eine Neuigkeit dazu.


    Edit: Die Neuigkeit war dann doch keine. Deshalb lösche ich den vorherigen Inhalt dieses Beitrags, bevor er noch Verwirrung erzeugt.


    Ich habe gerade bemerkt, dass ich beim Auskommentieren meines Workarounds aus dem Startscript um eine Zeile verrutscht war. Damit war der Workaround bei meinem Test noch aktiv und deshalb funktionierte natürlich auch alles bestens.


    Also, der Stand ist der gemäß Beitrag 17. Alles gut.

    Ich kann nicht beurteilen, ob das eine Sicherheitslücke darstellt. Ich kann nur folgendes feststellen: Wenn es die Absicht ist, durch Hashen und Salzen, eine Änderung der Datei search.json.mozlz4 zu verhindern - und zwar sowohl was ihren Inhalt betrifft als auch ihren Pfad - dann klappte das bei meinen Tests unter Windows nicht.


    Meine Tests zielten nur auf den Pfad ab. Ich habe nicht getestet, ob eine inhaltliche Änderung der Datei ebenfalls durchgehen würde. Das dürfte sie nicht. In diesem Fall hätte sich sogar der tatsächliche Hashwert der Datei und nicht nur das Salz geändert. Das wäre ein größeres Problem.


    Noch etwas ist mir bei den Tests aufgefallen. Bei mir hat sich ja nur der Pfad des Profils geändert. Wäre der Hash inklusive Salz nun das Kriterium, an dem erkannt wird, dass eine nicht gewünschte Änderung vorgenommen wurde, die vielleicht ein Sicherheitsrisiko darstellt, dann müsste der Firefox anders reagieren.
    Warum? Anhand es Hashwerts lässt sich nur erkennen, dass etwas geändert wurde. Man kann aus dem Hash nicht ermitteln, was geändert wurde. Die richtige Reaktion darauf wäre also, die fragliche Datei komplett durch eine sichere Standardversion zu ersetzen.
    Das passiert aber nicht. Alle anderen Einstellungen wie auch die von mir selbst installierten Suchmaschinen bleiben erhalten. Hätte ein Angreifer mir eine schädliche Suchmaschine untergejubelt, dann wäre sie immer noch da und auch auswählbar.


    Anders wäre die Situation, wenn der Firefox erkennt, dass nur das Salz nicht mehr stimmt. Dann wäre klar, dass die Datei selbst nicht verändert wurde, also auch kein Risiko darstellt. Dann könnte man sie so belassen. Dann wüsste ich aber auch keinen technisch notwendigen Grund, die Standardsuchmaschine auf Google zurückzusetzen.


    In Summe passt das für mich nach wie vor nicht zusammen, wie man es auch dreht. Jedoch kenne ich weder alle Details noch die Absicht dahinter und könnte nur mutmaßen.


    Wie geschrieben, habe ich mir einen Workaround gebastelt und bin Google als Standardsuchmaschine auch unter Linux los. Mein eigentliches Problem ist damit gelöst.


    Wenn du für dich zu der Erkenntnis kommst, dass es sich um einen sicherheitsrelevanten Bug handelt, dann teile es Mozilla zur Prüfung mit. Ich würde dich nur bitten, den Test zunächst auch selbst einmal auszuführen und zu bestätigen, dass auf deinem Rechner das gleiche Verhalten zu beobachten ist.

    Ich meine, das Thema kann abgeschlossen werden. Neue Erkenntnisse sind anscheinend nicht zu erwarten.


    - WebGl kann unter Linux funktionieren, wenn man unterstützte Grafikkarten und -treiber verwendet.
    - Die GPU-Beschleunigung funktioniert im Firefox unter Linux nicht.


    Das ist schade, aber ich kann damit leben. Das ist mir die Privacy wert. Sollte ich Performance benötigen, verwende ich halt einen zweiten Browser.


    Danke, Harry, für's testen.

    Hallo Hoffnungsvoller, ...


    danke für den Hinweis. Dass sich search.json.mozlz4 nicht einfach so entpacken lässt, hatte ich vorgestern ebenfalls feststellen müssen. Mozilla verwendet nicht das Standard-LZ4. Die Endung mozlz4 deutet es schon an. Man kann die Datei mit den genannten Scripts entpacken oder mit Tools wie lz4json oder dejsonlz4.



    Wobei ich mich schon frage, wieso Du keine Probleme damit in Windows hast, das dürfte dann ein sicherheitsrelevanter Bug sein, wenn Sören recht hat.


    Darüber habe ich gestern noch etwas nachgedacht. Für den Sonderfall der Sandbox unter Windows ist mir inzwischen klar, warum es funktioniert. Das ist einfach zu verstehen, wenn man denn mal darauf gekommen ist.
    Ich verwende unter Windows Sandboxie und unter Ubuntu Firejail, wie man oben sieht. Sandboxie erstellt für die darin laufenden Programme eine eigene Umgebung und "emuliert" gewissermaßen das Filesystem. Dabei bleiben die Pfadnamen erhalten, auch wenn sie umgelenkt werden.

    Weshalb es auch ohne Sandbox klappt, also einfach nur durch Kopieren, weiß ich noch nicht. Ich werde darauf aber keine weitere Mühe verwenden. Ich habe stattdessen über einen Workaround nachgedacht und eine mich praktikable Lösung gefunden. Damit bin ich zufrieden.


    Dir weiterhin viel Spaß im Forum.

    Hatoni, wenn du das xp neu installiert hast, dann sollte ein frisch installierter Thunderbird auch funktionieren. Vielleicht hast du ein defektes Profil übernommen? Dann teste mal mit einem neuen.
    Es kann auch sein, dass die aktuelle Version des Thunderbird das xp nicht mehr unterstützt. In diesem Fall kannst du vielleicht auf die letzte ESR ausweichen.
    Da das nichts mit dem Firefox zu tun hat, fragst du am besten in einem anderen Forum nach. Sonst wird sich Milupo wieder beschweren.


    Milupo,



    Und bitte, wo ist dein hilfreicher Hinweis?


    Du hast die Beiträge nicht einmal richtig gelesen. Vielleicht schaust du mal nach, von wem der Hinweis kam, wie man xp nachträglich installieren und sich die Multiboot-Umgebung erhalten kann. Von dir kam er jedenfalls nicht.


    Verkehrte Welt. Hier muss man sich schon fast rechtfertigen, wenn man anderen Hilfe anbietet.


    Ich verstehe den Sinn eines offenen Support-Forums darin, dass jeder, der um Hilfe bittet, seine Fragen stellen darf und dass diejenigen, die helfen möchten und es auch können, diese Hilfe geben. Dazu ist doch ein solches Forum da, oder nicht?


    Milupo, deine Meinung sei dir zugestanden. Irgendeinen hilfreichen Hinweis kann ich darin aber nicht finden.


    Natürlich ist Schaden entstanden.


    Das ist nicht von der Hand zu weisen. Ein Image-Schaden ist definitiv entstanden. Und sei es nur bei einigen wenigen. Ich bin auch enttäuscht, möchte das aber nicht überbewerten. Immerhin haben sie die Kritik angenommen und den "Fehler" korrigiert.


    Ich finde es vor allem schade für die Entwickler bei Mozilla. Die haben wirklich gute Arbeit geleistet und einen Browser abgeliefert, der wieder konkurrenzfähig ist und (die Hoffnung stirbt zuletzt) nach wie vor seine Stärken gerade im Bereich Privacy hat.