Hallo,
kann man irgendwie einstellen, dass man auf bestimmten Websites nur Verlinkungen, also Links, anzeigt und alles andere ausblendet, also jeglichen Text und Bilder?
Danke für eure Hilfe!
Hallo,
kann man irgendwie einstellen, dass man auf bestimmten Websites nur Verlinkungen, also Links, anzeigt und alles andere ausblendet, also jeglichen Text und Bilder?
Danke für eure Hilfe!
Ob man das irgendwie einstellen kann, weiß ich nicht, aber vielleicht reicht dir ja schon eine Erweiterung wie Link Gopher.
Danke dir,
mir wäre allerdings lieber, dass ich jedes mal alle Links direkt beim Seitenaufruf sehe, weil ich die Seite häufig aktualisiere und dann müsste ich ja jedes Mal die Erweiterung neu ausführen. Außerdem möchte ich das bei mehreren Seiten machen und hätte dann ja mehrere Tabs mit Links.
Ich habe jetzt über den Netzwerkfilter von uBlock so viel wie möglich geblockt. Einiges ist allerdings immer noch da, was mir nicht gefällt und da lässt sich kein Netzwerkfilter anwenden.
Da sind beispielsweise viele Leerräume, die ich enger machen möchte.
Du kennst die Pipette in uBlockOrigin?
Damit kannst du jeden Winkel leerräumen.... du kannst dir zunächst eine Vorschau ansehen, damit du nicht zuviel blockst...
Da dürfte er aber sehr viele Filterregeln erstellen, zu welchem Sinn? Denn den sehe ich bislang nicht hinter seine Frage. Ohne sonstigen Informationen sind Links völlig wertlos, solange man nicht reinklickt, also dürfte seine Anfrage wohl nur ganz wenige Seiten betreffen und die möge er bitte nennen.
Neben Link Gopfer:
https://addons.mozilla.org/firefox/addon/web-link-extractor/
Aber auch nur auf Klick.
Evtl gibt es ein GM-Script...
Das hier funktioniert, sieht aber wahrscheinlich unschön aus:
@-moz-document url("vollständige Webadresse der Seite")
*:not(a) { color: transparent !important; }
Einzutragen in die userContent.css oder in Stylus&Co. Das solle aber unbedingt auf die eine Seite eingeschränkt werden, indem die vollständige Webadresse der Seite an der entsprechenden Stelle eingetragen wird, wenn man die userContent.css nutzt, die Addons haben wenigstens teilweise ein anderes Vorgehen.
Ich habe das hier für das das camp eingetragen, also toll sieht das nicht aus, weil Boxen, Buttons, Avatare noch sichtbar sind, ich schreibe gerade blind
Ich bin so frei, meinen Text oben zu GM zu erweitern:
https://www.google.com/search?q=greas…extract%20links
https://stackoverflow.com/questions/1451…pecific-pattern
Man müsste sich da selbst durcharbeiten, zuviel zum Testen, evtl hat der Script-Spezi hier im Forum eine Idee.
Ich habe das hier für das das camp eingetragen, also toll sieht das nicht aus, weil Boxen, Buttons, Avatare noch sichtbar sind, ich schreibe gerade blind
Du hättest es doch auch vor der Antwort rückgängig machen können … :-???
Hab ich doch War kein Vorwurf. Wegen Bilder und Buttons die sind auch <a>
Mehr als diese Link-Sammler wüste ich jetzt auch nicht.
Da dürfte er aber sehr viele Filterregeln erstellen, zu welchem Sinn? Denn den sehe ich bislang nicht hinter seine Frage. Ohne sonstigen Informationen sind Links völlig wertlos, solange man nicht reinklickt, also dürfte seine Anfrage wohl nur ganz wenige Seiten betreffen und die möge er bitte nennen.Neben Link Gopfer:
https://addons.mozilla.org/firefox/addon/web-link-extractor/
Aber auch nur auf Klick.Evtl gibt es ein GM-Script...
Hintergrund ist, dass ich nur den Downloadlink auf bestimmte Seiten haben wollte, z.B. bei Updates von Programmen. Hab aber nicht daran gedacht, dass es ja weitaus mehr Links auf einer Seite gibt, so wie hier im Forum z.B. die Benutzernamen.