Entwicklung Firefox

  • Ich würde gerne was loswerden.

    AI und Tabs. Da gibt es anderweitig (Seiten, die ich nicht nennen möchte) Verständnisprobleme, warum das nicht in den Einstellungen "Datenschutz" erscheint. Dazu sollte man, meiner Meinung nach, wissen, dass dieses Feature ein internes Firefox-Feature ist und den Richtilinien des Datenschutzes und der Privatsphäre seitens Mozilla folgt. Während die Sektion "Datenschutz" für mich eher den Datenschutz gegenüber anderen beinhaltet.

    Das andere Feature ist die neu gestaltete Einmalsuche in der Adressleiste mit der Lupe. Ich sehe das hier, im aktuellen Firefox (v138, und vorherigen) nicht, ist per userChrome ausgeblendet, weil ich das so nicht nutze. In der Nightly v140 sehe ich das. Mal davon abgesehen, dass diese Art der Anzeige dafür anders ist, halte ich es für weniger nervig, aber dafür prägnanter als Option. "das kannst du machen, genau so". Wird leider nicht von allen so aufgenommen.

    Ich denke, dazu wird es im Forum Fragen geben, vor allem zu der AI-Sache. Ich für mich würde es genau so schreiben wie oben. Firefox/Mozilla <> andere. Und hier werden genau die gleichen Aluhelm-Träger aufschlagen und rumzicken, wie schon beim support(.mozilla.org)/questions/

    Wie gut, dass man vieles offiziell, aber auch inoffiziell, abschalten kann :thumbup:

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • Um was für eine „KI-Sache“ in Bezug auf die Tabs geht es? Die Vorschläge für einen Namen und andere Tabs für die Tab-Gruppen? Da verwendet lokale KI und lokale KI kann überhaupt kein Datenschutz-Thema haben, da nichts das Gerät verlässt, nicht einmal in Richtung Mozilla. Außerdem wird das per Opt-in explizit durch den Benutzer aktiviert und ist überhaupt nicht automatisch aktiv. Insofern ist mir nicht klar, was genau daran jemand kritisieren sollte.

    Das andere, was du ansprichst, wird bereits seit zwei Monaten ausgerollt und ist auch schon bei 100 Prozent Ausrollung angekommen. Die Beschwerden hier halten sich sehr in Grenzen, falls es überhaupt eine gab. Mir ist jedenfalls nichts in Erinnerung geblieben.

    PS: In einem komplett in Deutsch geschriebenen Beitrag ist es merkwürdig, von Artificial Intelligence (AI) zu sprechen, wo es mit Künstliche Intelligenz (KI) doch eine sehr geläufige deutschsprachige Bezeichnung gibt. ;)

  • Siehst du, und das mit der lokalen KI wusste ich nicht. Ich kann damit auch nicht wirklich was anfangen, warum meine Tabs bzw Tab-Gruppen eine KI benötigen. Sag es treffender mit KI? Und KI sehen viele, mich eingeschlossen, irgendwas auf irgendeinem Server, sei es das freundliche Mozilla oder andere, die damit ihre KI trainieren.

    Wenn du nochmal dazu kommst, diese Thema anzusprechen in einem deiner Artikel, falls nicht schon geschehen, dann schreib es bitte genau so, wie du es mir beschrieben hast :)

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • das mit der lokalen KI wusste ich nicht

    Das steht direkt in der Opt-in-Meldung, bevor der Nutzer das Feature aktiviert. Es gibt außerdem noch eine Verlinkung auf support.mozilla.org, wobei der Artikel noch nicht existiert. Aber das Feature wird ja auch noch nicht ausgerollt, sondern ist standardmäßig noch auf Nightly-Versionen limitiert. Der Artikel wird auf jeden Fall existieren, bevor das Feature größer ausgerollt wird, und dann entsprechend mehr ins Detail gehen.

    Und KI sehen viele, mich eingeschlossen, irgendwas auf irgendeinem Server, sei es das freundliche Mozilla oder andere, die damit ihre KI trainieren.

    Ich weiß ehrlich gesagt nicht, woher diese Annahmen kommen. Einsatz von KI bedeutet weder, dass etwas an irgendwelche Server übertragen wird, noch bedeutet das, dass bei der Benutzung Daten gesammelt werden, mit denen die KI trainiert wird. Natürlich muss eine KI mit Daten trainiert werden. Aber der Endnutzer muss in diesen Prozess nicht involviert werden.

    Die Übersetzungsfunktion von Firefox ist da auch ein schönes Beispiel für. Das geschieht ebenfalls vollständig auf dem Gerät des Anwenders, der sich vorab fertige Übersetzungs-Modelle herunterlädt, ohne dass irgendetwas zurück an Mozilla gesendet wird. So ist das mit allen Firefox-Features, die lokale KI einsetzen. Selbst in der Orbit-Erweiterung von Mozilla, die durchaus mehr tun „dürfte“, weil man bei Add-ons Dinge etwas „lockerer“ sehen könnte, als bei nativen Firefox-Funktionen, verzichtet Mozilla ganz bewusst darauf, Daten zum KI-Training zu verwenden.

    Allerdings gehört zur Wahrheit natürlich auch, dass die Qualität davon profitieren würde, wenn möglichst viele Daten aus der realen Nutzung zum KI-Trainig genutzt würden. Es ist halt eine Abwägung, ob man den Fokus etwas mehr in Richtung Qualität oder Privatsphäre schieben möchte. Mozillas Priorität ist klar.

    Wenn du nochmal dazu kommst, diese Thema anzusprechen in einem deiner Artikel, falls nicht schon geschehen, dann schreib es bitte genau so, wie du es mir beschrieben hast :)

    Es ist aktuell nicht geplant, dass ich einen eigenen Artikel dafür schreibe. Aber spätestens, wenn das Feature in einer finalen Firefox-Version ausgerollt wird, werde ich selbstverständlich den lokalen KI-Einsatz hervorheben. ;)

  • Bei Mozilla-Servern habe ich keine bedenken. Aber was anderes:

    Wer browser.ml.modelHubProvider als Boolean-Schalter mit dem Wert true anlegt, erhält in about:addons einen neuen Reiter, der die lokalen KI-Modelle anzeigt (inklusive Daten zur letzten Aktualisierung und Nutzung sowie Möglichkeit zum Entfernen), die für verschiedene Firefox-Funktionen heruntergeladen worden sind.

    Die ersten beiden sind von huggingchat, habe danach gesucht. Wie binde ich das ein? Davon abgesehen, bewirkt der Schalter in der Nightly nichts, nur in der v139 (v140 nicht getestet).

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • Mozilla hostet seine Modelle alle bei Hugging Face. Du musst nichts einbinden. Wenn Modelle in about:addons erscheinen, dann hat sie Firefox bereits heruntergeladen, weil ein entsprechendes Firefox-Feature oder eine Firefox-Erweiterung, welche Mozillas experimentelle KI-Schnittstelle verwendet, genutzt worden ist.

    Mittlerweile zeigt Firefox auch an, wofür die Modelle mindestens einmal genutzt worden sind:

  • Da steht nur "ModelHub undefined", klicke ich drauf, zeigt es mir 2,5mb an. Firefox 139. Firefox 141 (von heute) zeigt genau nichts an, wie vorher auch.

    Ich finde noch browser.ml.modelHubRootUrl https://model-hub.mozilla.org/ und
    browser.ml.modelHubUrlTemplate {model}/{revision}

    weil ein entsprechendes Firefox-Feature oder eine Firefox-Erweiterung, welche Mozillas experimentelle KI-Schnittstelle verwendet, genutzt worden ist.

    Woran merke ich das?

    äh, was? Copilot

    Zitat

    wie kann ich in firefox ai module einladen?


    Zitat

    Firefox bietet eine experimentelle AI Runtime, die es ermöglicht, KI-Modelle direkt im Browser auszuführen diese Funktion zu aktivieren, kannst du folgende Schritte ausprobieren:

    1. Einstellungen ändern: Gehe zu about:config in Firefox und setze die Einstellung browser.ml.enable auf true.
    2. KI-Modelle nutzen: Besuche about:inference (nur in Firefox Nightly) oder verwende JavaScript-Code, um ein Modell zu laden und auszuführen.
    3. Code-Beispiel: Falls du ein Modell für Textzusammenfassungen nutzen möchtest, kannst du folgenden Code in der Browser-Konsole ausführen
    JavaScript
    const { createEngine } = ChromeUtils.importESModule("chrome://global/content/ml/EngineProcess.sys.mjs");
    const engine = await createEngine({taskName: "summarization"});
    const request = { args: ["Dies ist der Text, der zusammengefasst werden soll"]};
    const res = await engine.run(request);
    console.log(res[0]["summary_text"]);
    Zitat

    Modelle aus dem Hugging Face Hub: Firefox unterstützt über 1000 Modelle, die mit dieser Runtime kompatibel sind (1)

    Falls du eine einfachere Möglichkeit suchst, KI-gestützte Funktionen in Firefox zu nutzen, kannst du auch die neue AI-Chatbot-Sidebar ausprobieren, die ab Version 133 verfügbar ist (2). Dort kannst du verschiedene Chatbots wie ChatGPT, Google Gemini oder HuggingChat direkt im Browser verwenden.

    Code
    1 firefox-source-docs.mozilla.org
    2 support.mozilla.org


    1. ist gesetzt, neue Sidebar auch. Nach deinem Tipp: claude,chatgpt,gemini,huggingchat,lechat,copilot

    about:inference

    "Load Inference" - kein Plan, zu viele Daten

    "HTTP ..." http://localhost:8080/v1/chat/completions da gibt es hier keinen Endpoint

    Modells

    Aber immer noch keine Liste wie bei dir.

    Ergänzend

    Firefox AI Runtime — Firefox Source Docs documentation

    Bei Huggingchat steht meta-llama/Llama-3.3-70B-Instruct
    Muss ich bei denen registriert sein, für weitere LLM?

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • Da steht nur "ModelHub undefined", klicke ich drauf, zeigt es mir 2,5mb an. Firefox 139.

    Das ist noch kein Feature von Firefox 139. Damit brauchst du nicht zu testen.

    Firefox 141 (von heute) zeigt genau nichts an, wie vorher auch.

    Du musst erst eines der Features nutzen, die von einem solchen Modell Gebrauch machen, damit etwas in about:addons angezeigt wird.

    Woran merke ich das?

    Wenn das verwendete Modell in about:addons erscheint. ;) Am Offensichtlichsten ist es natürlich, wenn das Feature von dir selbst per Opt-in aktiviert werden muss, wie im Falle der smarten Tab-Gruppen.

    Der Rest deines Beitrags scheint sich auf eine Antwort von einem KI-Bot zu beziehen (du erwähntest auch Copilot). Wie nicht anders zu erwarten, fehlt dem Chatbot Kontext, sodass dieser mit seiner Antwort dich eher von deiner eigentlichen Frage weglenkt. Ich gehe eigentlich nicht davon aus, dass du selbst KI-Funktionen entwickeln möchtest. Und dann sind für dich weder about:inference noch Code-Beispiele relevant. Auch ist das Thema mit der Chatbot-Integration eine ganz andere Geschichte und hat nichts hiermit zu tun. Dafür werden ja keine KI-Modelle, sondern letztlich einfach nur die jeweiligen Websites in der Sidebar geladen.

    Die Option browser.ml.enable wird im Übrigen ab Firefox 140 standardmäßig aktiviert sein. Und bevor sich jetzt jemand Sorgen der Art „Ich will keine KI-Funktionen im Browser“ macht: Diese Option aktiviert nur die API und für sich alleine kein einziges KI-Feature. Jedes Feature, welches die API nutzt, hat seine eigene Einstellung. Nur erschwert es natürlich parallele Ausrollungen und Experimente mehrerer Features, wenn die alle zusätzlich von dieser Option abhängen.

    about:inference

    "Load Inference" - kein Plan, zu viele Daten

    Die Seite about:inference richtet sich ausschließlich an Entwickler und es ist auch nicht geplant, diese in Zukunft über Nightly-Versionen hinaus zugänglich zu machen.

    HTTP ..." http://localhost:8080/v1/chat/completions da gibt es hier keinen Endpoint

    Das ist logisch. Wenn du localhost aufrufst, bedeutet das, dass du selbst einen Server bereitstellst. Wenn du das nicht tust, kann nichts angezeigt werden.

    Bei Huggingchat steht meta-llama/Llama-3.3-70B-Instruct
    Muss ich bei denen registriert sein, für weitere LLM?

    Mir ist nicht klar, worauf die Frage abzielt. Möchtest du selbst eigene KI-Funktionen bereitstellen? Als Endnutzer musst du dich nämlich nicht darum kümmern, was für Modelle genutzt werden, und dich auch nirgends registrieren.

  • tl:dr

    Ich möchte eigentlich nur die Option haben, die LLM, die du selbst im Bild zeigst, nutzen zu können. Aktuell bin ich komplett "lost" wie ich das hinbekommen - idealerweise unter den Bedingungen, inkl. Policies, die hier gesetzt wurden.

    Dass unter localhost nichts läuft, weiss ich, "Server" ist hier nicht neu. Ich hätte auch keine Mühe, dass auf einem 24/7 im LAN aufzusetzen. Nur wie???

    Bitte nicht sauer sein, weil ich dich damit belämmere. Ich benötige nur grundlegende Infos. Wenn Mozilla mir jedoch sowas zeigt:

    https://support.mozilla.org/1/firefox/139.0/WINNT/de/local-models
    "Seite nicht gefunden"
    äh...

    Und https://support.mozilla.org/en-US/search/?q=locale+models dauert

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • Ich möchte eigentlich nur die Option haben, die LLM, die du selbst im Bild zeigst, nutzen zu können. Aktuell bin ich komplett "lost" wie ich das hinbekommen - idealerweise unter den Bedingungen, inkl. Policies, die hier gesetzt wurden.

    Die Modelle werden bei der ersten Verwendung eines entsprechenden Features automatisch heruntergeladen. Am Beispiel der smarten Tab-Gruppen: Du nutzt eine Nightly-Version und machst einen Rechtsklick auf einen Tab, wählst „Tab zu neuer Gruppe hinzufügen“ und klickst dann auf den Button „Suggest more tabs for groups“. Falls es das erste Mal ist, erscheint dann noch ein Opt-in-Hinweis, den du bestätigst. In der Folge lädt Firefox automatisch „smart-tab-embedding“ und „smart-tab-topic“ als Modelle herunter.

    Alle Voraussetzungen (mit Ausnahme von browser.ml.modelHubProvider für die Integration in about:addons ) sind in Firefox Nightly automatisch erfüllt. Da muss keine weitere Option aktiviert und keine Unternehmensrichtlinie genutzt werden.

    Dass unter localhost nichts läuft, weiss ich, "Server" ist hier nicht neu. Ich hätte auch keine Mühe, dass auf einem 24/7 im LAN aufzusetzen. Nur wie???

    Das hatte sich ja auf die Chatbots bezogen. Wie du selbst etwas programmierst, können wir in diesem Forum nicht behandeln. Die mit Abstand einfachste Lösung für einen lokalen Server ist llamafile von Mozilla. Da musst du nicht viel mehr machen, als eine Datei herunterzuladen und auszuführen. Aber nochmal: Das hat nichts mit den KI-Modellen in Firefox zu tun, das ist ein anderes Thema.

    Ich benötige nur grundlegende Infos. Wenn Mozilla mir jedoch sowas zeigt:

    https://support.mozilla.org/1/firefox/139.…de/local-models
    "Seite nicht gefunden"
    äh...

    Das ist nicht anders zu erwarten. Du sprichst hier von einem Feature einer Nightly-Version, welches selbst dort standardmäßig noch deaktiviert ist. Natürlich ist der Artikel dafür noch nicht geschrieben. Die Artikel auf support.mozilla.org müssen fertig sein, wenn das jeweilige Feature in einer finalen Firefox-Version ausgeliefert wird. Die Links müssen aber schon wesentlich früher in Firefox integriert werden, weil das den Code betrifft und Code einige Zeit benötigt, um von einer Nightly-Version in eine finale Version zu gelangen. Außerdem ist am Anfang der Entwicklung ein Feature noch nicht unbedingt bis ins letzte Detail klar und Screenshots sind ohnehin erst dann möglich, wenn es wirklich fertig entwickelt ist.

  • Beim 139er "Fertigfuchs" werden KI-Modelle angezeigt

    Das kann überhaupt nicht sein, da die Funktion in Firefox 139 noch gar nicht implementiert ist. Dort siehst du lediglich „ModelHub“ als Platzhalter-Inhalt.

    beim Nightly nicht, weder beim 140er Nightly, noch beim 141er Nightly.

    Wie jetzt schon mehrfach geschrieben: Doch, sobald eines der entsprechenden Features mindestens einmal genutzt worden ist. Solange kein relevantes Features genutzt wird, gibt es auch nichts anzuzeigen.

  • Die Bedeutung des Begriffes Platzhalter ist, dass das kein realer Inhalt ist. Dort steht als Größe einfach irgendeine Zahl, die nichts bedeutet - eben als Platzhalter, bis die tatsächliche Funktion in einem weiteren Schritt implementiert wurde. Es hat ja auch niemand bei Mozilla und auch ich nicht gesagt, dass man diesen Abschnitt für about:addons in Firefox 139 aktivieren soll. Zum Zeitpunkt meiner Vorstellung dieser Funktion war die Nightly-Version, um die es in diesem Thema geht, bereits bei Version 140.

  • Also gestern hatte ich das was stehen, nachdem ich mit huggingchat gespielt hatte. Aber wieder gelöscht.

    Ich hatte auch etwas Zeit, mich mit den llamafiles zu beschäftigen. Dank Windows und 4GB max für EXE-Dateien konnte ich deep-irgendwas mit 16GB nicht nutzen. Das braucht einen Server, der diese Datei direkt oder entpackt nutzen kann. Unter Linux war ich damit noch nicht.

    Wegen browser.ml.modelHubProvider, das findet searchfox aktuell nicht, daher gehe ich davon aus, daß der Schalter entfernt oder umbenannt wurde. Eine Suche nach pref("browser.ml.modelHub sagt mir, dass nicht mehr vorhanden.
    Search - mozsearch

    Siehe
    Search - mozsearch

    In der Beta ist es auch nicht mehr vorhanden.

    Es gibt aber diesen Eintrag bei den Add-ons, es ist nur ausgeblendet (hidden="")

    Code
    <button is="category-button" viewid="addons://list/mlmodel" class="category" role="tab" name="mlmodel" default-hidden="" aria-selected="false" data-l10n-id="addon-category-mlmodel-title" tabindex="-1" title="On-device AI" hidden=""><span class="category-name" data-l10n-id="addon-category-mlmodel">On-device AI</span></button>

    Ich muss auch mal den Schalter extensions.ui.mlmodel.hidden gesetzt haben, der ist nicht mehr nützlich, gelöscht

    Weitergesucht auf dieser Basis:
    Search - mozsearch

    Vorab: browser.ml.chat.hideLocalhost false zeigt unterhalb der KI-Bots localhost an und das sind die Llamafiles, die als Server laufen unter localhost:8080. Evtl lässt sich diese Vorgabe später mit browser.ml.chat.provider auf einen anderen Port ändern.
    Search - mozsearch

    Fügt man localhost jedoch zu browser.ml.chat.providers hinzu statt der genannten anderen Option, wird es auch dort angezeigt als Auswahl

    Zurück zu "mlmodel", anscheinend soll es werden, oder gibt es bereits, Erweiterungen dieses Typs. Man könnte auch vermuten, dass auch dann erst die Kategory On-device AI aktiviert wird - ist eben ne Nigthly.

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

  • Also gestern hatte ich das was stehen, nachdem ich mit huggingchat gespielt hatte.

    Nochmal: Die Chatbots haben nichts damit zu tun. Das sind ganz normale Websites, die in der Sidebar geladen werden. In dem Zusammenhang werden keine KI-Modelle oder sonstige Dinge heruntergeladen.

    Ich hatte auch etwas Zeit, mich mit den llamafiles zu beschäftigen. Dank Windows und 4GB max für EXE-Dateien konnte ich deep-irgendwas mit 16GB nicht nutzen.

    Diese Beschränkung von Windows war mir bisher nicht bekannt und mir ist auch nicht klar, wieso Windows damit ein Problem hat, da es für macOS und Linux auch kein Problem ist. Auf der GitHub-Seite werden aber auch kleinere Modelle angeboten.

    Wegen browser.ml.modelHubProvider, das findet searchfox aktuell nicht, daher gehe ich davon aus, daß der Schalter entfernt oder umbenannt wurde. Eine Suche nach pref("browser.ml.modelHub sagt mir, dass nicht mehr vorhanden.
    Search - mozsearch

    Siehe
    Search - mozsearch

    In der Beta ist es auch nicht mehr vorhanden.

    Stimmt. Die Option wurde vor wenigen Tagen umbenannt und standardmäßig aktiviert. Der neue Name ist extensions.htmlaboutaddons.local_model_management. Als Nutzer muss man ab Firefox 140 nichts mehr manuell dafür aktivieren.

    Vorab: browser.ml.chat.hideLocalhost false zeigt unterhalb der KI-Bots localhost an und das sind die Llamafiles, die als Server laufen unter localhost:8080. Evtl lässt sich diese Vorgabe später mit browser.ml.chat.provider auf einen anderen Port ändern.
    Search - mozsearch

    Fügt man localhost jedoch zu browser.ml.chat.providers hinzu statt der genannten anderen Option, wird es auch dort angezeigt als Auswahl

    Jetzt geht es schon wieder um die Chatbots. Wieso springst du permanent zwischen diesen zwei Themen? Die hängen nicht miteinander zusammen. :/

    Zurück zu "mlmodel", anscheinend soll es werden, oder gibt es bereits, Erweiterungen dieses Typs. Man könnte auch vermuten, dass auch dann erst die Kategory On-device AI aktiviert wird - ist eben ne Nigthly.

    Wie gesagt: Die Kategorie wird automatisch aktiviert, sobald mindestens eines der Modelle heruntergeladen worden ist. Und das passiert automatisch, sobald eines der entsprechenden Firefox-Features oder eine entsprechende Erweiterung genutzt worden ist.

    Und ja, es gibt eine eigene Erweiterungs-Schnittstelle, darüber hatte ich in diesem Artikel geschrieben:

  • Ich versuche dann, es zu trennen. Obwohl das momentan ein großer Brei für mich noch ist, ob nun Webseite oder lokal.


    Das mit den 4GB steht hier, direkt unterhalb der Tabelle mit den Modellen

    GitHub - Mozilla-Ocho/llamafile: Distribute and run LLMs with a single file.
    Distribute and run LLMs with a single file. Contribute to Mozilla-Ocho/llamafile development by creating an account on GitHub.
    github.com
    Zitat

    Unfortunately, Windows users cannot make use of many of these example llamafiles because Windows has a maximum executable file size of 4GB, and all of these examples exceed that size. (The LLaVA llamafile works on Windows because it is 30MB shy of the size limit.) But don't lose heart: llamafile allows you to use external weights; this is described later in this document.

    Das mit den "weights" steht im Kapitel direkt darunter.

    Man kann mit Windows Dateien erzeugen, die größer als 4GB sind, aber Executables sind auf 4GB beschränkt, darüber erfolgt eine Fehlermeldung.


    Nachtrag: steht doch noch was drin: all-MiniLM-L6-v2

    Und extensions.htmlaboutaddons.local_model_management steht true

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 96.

    Einmal editiert, zuletzt von .DeJaVu (31. Mai 2025 um 15:58)