1. Nachrichten
  2. Forum
    1. Unerledigte Themen
    2. Forenregeln
  3. Spenden
  • Anmelden
  • Registrieren
  • Suche
Firefox-Nachrichten
  • Alles
  • Firefox-Nachrichten
  • Artikel
  • Seiten
  • Forum
  • Erweiterte Suche
  1. camp-firefox.de
  2. Firefox-Nachrichten

So kann Microsoft Copilot oder eine lokale KI als Chatbot in Firefox aktiviert werden

  • Sören Hentzschel
  • 28. März 2025 um 21:31
  • 2.557 Mal gelesen
  • 8 Antworten

Firefox bietet eine Integration gleich mehrerer KI-Chatbots. Der Microsoft Copilot ist nicht dabei - zumindest nicht offiziell. Über eine versteckte Option lässt sich auch dieser in Firefox aktivieren, ebenso wie eine lokale KI.

Firefox bietet eine Integration gleich mehrerer KI-Chatbots. Der Microsoft Copilot ist nicht dabei – zumindest nicht offiziell. Über eine versteckte Option lässt sich auch dieser in Firefox aktivieren, ebenso wie eine lokale KI.

Seit Firefox 135 integriert Mozillas Browser mehrere KI-Chatbots. Dabei stehen Google Gemini, ChatGPT, HuggingChat, Anthropic Claude sowie Le Chat Mistral zur Verfügung. Die Chatbots können direkt über die Sidebar genutzt werden.

Welche Chatbots der Nutzer sieht, wird dabei über eine versteckte Option gesteuert, welche auf die Bezeichnung browser.ml.chat.providers hört. Gibt man dies in das Filterfeld von about:config ein, findet man die Option allerdings nicht. Dennoch ist die Option vorhanden und besitzt den Standardwert claude,chatgpt,gemini,huggingchat,lechat.

Wer die genannte Option in about:config mit dem Typ „String“ anlegt, kann durch Weglassen eines Anbieters die Auswahl der zur Verfügung stehenden Chatbots reduzieren. Wird die Liste hingegen durch copilot erweitert, steht nach einem Neuladen der Sidebar auch Microsoft Copilot zur Verfügung.

Microsoft Copilot als Chatbot in Firefox

Microsoft Copilot als Chatbot in Firefox

Auch localhost ist ein gültiger „Anbieter“. Darüber kann dann eine lokale KI eingebunden werden, zum Beispiel über llamafile von Mozilla.

Lokale KI als Chatbot in Firefox

Der Beitrag So kann Microsoft Copilot oder eine lokale KI als Chatbot in Firefox aktiviert werden erschien zuerst auf soeren-hentzschel.at.

  • Vorheriger Artikel Mozilla veröffentlicht Sicherheits-Update Firefox 136.0.4
  • Nächster Artikel Firefox mit deutlichem Anstieg der Nutzerzahlen auf Android und iOS in Europa

Antworten 8

.DeJaVu
28. März 2025 um 23:01

Gibt es weitere chatbots, die man einbinden könnte?

Sören Hentzschel
29. März 2025 um 07:22

Nein, weitere Chatbots sind derzeit nicht in Firefox hinterlegt.

Boersenfeger
29. März 2025 um 11:42

Moin, wie genau binde ich denn Llama ein? Der Eintrag und die Auswahl in about:config ist getan.

Sören Hentzschel
29. März 2025 um 11:46
  1. llava-v1.5-7b-q4.llamafile von https://github.com/Mozilla-Ocho/llamafile#quickstart herunterladen
  2. Auf Windows musst du den Dateinamen noch um .exe erweitern
  3. Die Datei ausführen

Damit ist das llamafile über einen lokalen Server gestartet und wird mit der localhost-Option in der Chatbot-Sidebar angezeigt.

Weiter unten auf der verlinkten Seite gibt es noch zahlreiche weitere Modelle, die man verwenden könnte und alle nach dem gleichen Prinzip funktionieren.

Boersenfeger
29. März 2025 um 12:32

Danke, das heißt, ich muss im about:config Schlüssel noch localhost hinzufügen oder ist nach Installation von llama das Teil direkt verfügbar?

Derzeit läd dies, das sind ja mehr als 6 gb =O

Sören Hentzschel
29. März 2025 um 12:52

Der Schalter in about:config ist notwendig, wenn du das in der Sidebar nutzen möchtest. Durch das Herunterladen des llamafiles geschieht nichts automatisch. Das ist komplett unabhängig von Firefox und auch nichts, was installiert werden muss. Die heruntergeladene Datei wird einfach ausgeführt und dadurch ein Server gestartet, der in jedem Browser aufgerufen werden kann.

Klein ist die Datei nicht. In der Liste unten gibt es auch deutlich kleinere, genauso aber nochmal deutlich größere Modelle. ;)

.DeJaVu
29. März 2025 um 13:07

6 Chatbots sind auch eine gute Auswahl.

Wegen "llama", wo kommt das eigentlich her? Ich kenne das nur noch von Winamp "whips the llamas ass".

Ende Februar habe ich geladen: llamafile-0.9.0.zip, llava-v1.5-7b-q4.llamafile und mistral-7b-instruct-v0.2.Q4_0.llamafile, beide von huggingface. Bin aber noch zu nix gekommen. Kann ich mehrere llamafiles nutzen?

Sören Hentzschel
29. März 2025 um 14:02

LLaMA steht offiziell für Large Language Model Meta AI und wurde in der Schreibweise halt etwas angepasst, sodass man es wie das Tier schreibt. Meta steht hier für den Konzern hinter Facebook, Instagram und WhatsApp, von denen kommt das nämlich. Das Projekt llama.cpp wiederum ist eine Portierung der LLaMA-Modelle in C/C++, die es ermöglicht, LLMs auf gewöhnlicher Endnutzer-Hardware laufen zu lassen. Dann gibt es noch das Projekt Cosmopoliton, was die Verteilung und Ausführung von Programmen auf einer Vielzahl von Betriebssystemen und Hardware-Architekturen unterstützt. Und diese beiden Projekte werden durch Mozillas llamafile quasi kombininiert, um Chatbots ganz einfach lokal auf dem Computer ausführen zu können.

Diskutiere mit!

Unterstütze uns!

Jährlich (2025)

92,9 %

92,9% (604,17 von 650 EUR)

Jetzt spenden
Über den Artikel diskutieren 8 Antworten, zuletzt: 29. März 2025 um 14:02
  1. Kontakt
  2. Datenschutz
  3. Impressum
Community-Software: WoltLab Suite™
Mastodon