Real-World Protection Test August-November 2012
Datum der Veröffentlichung | 2012-12-11 |
Datum der Überarbeitung | 2012-12-10 |
Prüfzeitraum | August - November 2012 |
Anzahl der Testfälle | 2006 |
Online mit Cloud-Konnektivität | |
Update erlaubt | |
False-Alarm Test inklusive | |
Plattform/OS | Microsoft Windows |
Methodik | Klicken Sie hier |
Einleitung
Schadsoftware stellt eine immer größere Bedrohung dar, nicht nur weil die Zahl der Malware-Programme zunimmt, sondern auch wegen der Art der Bedrohungen. Die Infektionsvektoren ändern sich von einfachen dateibasierten Methoden hin zur Verbreitung über das Internet. Die Malware konzentriert sich zunehmend auf die Benutzer, indem sie sie z. B. dazu verleitet, infizierte Webseiten zu besuchen, bösartige Software zu installieren oder E-Mails mit bösartigen Anhängen zu öffnen.
Der Schutzumfang von Antivirenprogrammen wird durch die Einbeziehung von z.B. URL-Blockern, Inhaltsfiltern, Reputationssystemen und benutzerfreundlichen Verhaltensblockern erweitert. Wenn diese Funktionen perfekt auf die signaturbasierte und heuristische Erkennung abgestimmt sind, erhöht sich der Schutz vor Bedrohungen.
In dem vorliegenden Test können alle Schutzfunktionen des Produkts verwendet werden, um eine Infektion zu verhindern - nicht nur Signaturen oder heuristische Dateiscans. Eine Suite kann in jeder Phase des Prozesses eingreifen - beim Zugriff auf die URL, beim Herunterladen der Datei, beim Aufbau der Datei auf der lokalen Festplatte, beim Dateizugriff und bei der Dateiausführung - um den PC zu schützen. Das bedeutet, dass der Test die realistischste Art und Weise ist, um festzustellen, wie gut das Security-Produkt den PC schützt. Da alle Komponenten einer Suite zum Schutz des PCs eingesetzt werden können, ist es möglich, dass ein Produkt im Test gut abschneidet, das z. B. einen optimalen Verhaltensschutz, aber einen schwachen URL-Blocker hat. Wir empfehlen jedoch, dass alle Teile eines Produkts so effektiv wie möglich sein sollten. Es ist zu bedenken, dass nicht alle Malware über das Internet in Computersysteme gelangt und z.B. ein URL-Blocker gegen Malware, die über ein USB-Flash-Laufwerk oder ein lokales Netzwerk auf einen PC gelangt, unwirksam ist.
Trotz dieser neuen Technologien ist es nach wie vor sehr wichtig, dass die signaturbasierten und heuristischen Erkennungsfähigkeiten von Antivirenprogrammen weiterhin getestet werden. Selbst mit allen verfügbaren Schutzfunktionen bedeutet die zunehmende Häufigkeit von Zero-Day-Angriffen, dass einige Computer unweigerlich infiziert werden. Da Signaturen aktualisiert werden können, bieten sie die Möglichkeit, Malware zu erkennen und zu entfernen, die ursprünglich von der Sicherheitssoftware übersehen wurde. Die neueren, "nicht-konventionellen" Schutztechnologien bieten oft keine Möglichkeit, vorhandene Datenspeicher auf bereits infizierte Dateien zu überprüfen, die sich auf den Dateiservern vieler Unternehmen befinden. Diese neuen Sicherheitsebenen sollten als Ergänzung zu guten Erkennungsraten verstanden werden, nicht als Ersatz.
Der Whole-Product Dynamic "Real-World" Protection Test ist ein gemeinsames Projekt von AV-Comparatives und der Fakultät für Informatik und Qualitätstechnik der Universität Innsbruck. Es wird teilweise von der Republik Österreich finanziert.
Für diesen Test verwenden wir normalerweise die Internet Security Suite, da alle Schutzfunktionen, die das System vor Angriffen schützen, verwendet werden können. Ein Anbieter kann jedoch stattdessen auch sein einfaches Antivirenprodukt angeben, wenn er dies vorzieht. Die Hauptversionen der in jedem monatlichen Testlauf getesteten Produkte sind unten aufgeführt:
Geprüfte Produkte
- GFI Vipre Internet Security
2012 | 2012 | 2013 | 2013 - PC Tools Internet Security
2013 | 2013 | 2013 | 2013
Testverfahren
Das Testen von Dutzenden von Antivirus-Produkten mit jeweils Hunderten von URLs pro Tag ist ein großer Arbeitsaufwand, der nicht manuell durchgeführt werden kann (da dazu Tausende von Websites parallel aufgerufen werden müssten), so dass eine Art von Automatisierung erforderlich ist.
Lab-Setup
Jedes zu prüfende Sicherheitsprogramm wird auf einem eigenen Testrechner installiert. Alle Computer sind mit dem Internet verbunden (Einzelheiten siehe unten). Das System wird eingefroren, wobei das Betriebssystem und das Sicherheitsprogramm installiert sind. Der gesamte Test wird auf echten Workstations durchgeführt. Wir verwenden keine Art von Virtualisierung. Jede Workstation hat eine eigene Internetverbindung mit einer eigenen externen IP. Wir haben spezielle Vereinbarungen mit mehreren Providern (Failover Clustering und keine Verkehrsblockierung), um eine stabile Internetverbindung zu gewährleisten. Die Tests werden mit einer Live-Internetverbindung durchgeführt. Wir haben die notwendigen Vorkehrungen getroffen (mit speziell konfigurierten Firewalls usw.), um andere Computer nicht zu schädigen (d. h. keine Ausbrüche zu verursachen).
Hardware und Software
Für diesen Test haben wir identische Workstations, einen Kontroll- und Befehlsserver und netzgebundenen Speicher verwendet.
Anbieter | Typ | CPU | RAM | Festplatte | |
Workstations | Dell | Optiplex 755 | Intel Core 2 Duo | 4 GB | 80 GB |
Kontroll-Server | Dell | Optiplex 755 | Intel Core 2 Duo | 8 GB | 2 x 500 GB |
Lagerung | Eurostor | ES8700-Offen-E | Doppel-Xenon | 32 GB | 140 TB Raid 6 |
Die Tests wurden unter Microsoft Windows XP SP3 mit Updates ab dem 1.. August 2012. Einige weitere installierte Software umfasst:
Anbieter | Produkt | Version | Anbieter | Produkt | Version | |
Adobe | Flash Player ActiveX | 16.0 | Microsoft | Büro Zuhause | 2013 | |
Adobe | Flash Player Plug-In | 16.0 | Microsoft | .NET-Rahmenwerk | 4.5.2 | |
Adobe | Acrobat Reader | 11.0 | Mozilla | Firefox | 35.0.1 | |
Apfel | QuickTime | 7.76 | Oracle | Java | 1.8.0.31 | |
Microsoft | Internet Explorer | 11.0 | VideoLAN | VLC-Medienspieler | 2.1.5 |
Ursprünglich hatten wir geplant, dieses Jahr mit einem vollständig aktualisierten/gepatchten System zu testen, aber wir mussten auf ältere/anfällige/ungepatchte Betriebssystem- und Softwareversionen zurückgreifen, da es in der Praxis nicht genügend Exploits gab, gegen die wir testen konnten. Dies sollte die Benutzer daran erinnern, ihre Systeme und Anwendungen immer auf dem neuesten Stand zu halten, um das Risiko einer Infektion durch Exploits zu minimieren, die ungepatchte Software-Schwachstellen ausnutzen.
Für 2013 planen wir, den Test unter Windows 7 64 Bit SP1 und aktuellerer Software durchzuführen.
Settings
Wir verwenden jede Sicherheitssuite mit ihren Standardeinstellungen (Out-of-the-Box). Unser dynamischer Schutztest für das gesamte Produkt zielt darauf ab, reale Bedingungen zu simulieren, wie sie von den Benutzern täglich erlebt werden. Wenn Benutzerinteraktionen erforderlich sind, wählen wir Zulassen. Wenn das System ohnehin geschützt wird, gilt es als blockiert, auch wenn zuvor eine Benutzerinteraktion stattgefunden hat. Wenn das System kompromittiert wird, betrachten wir es als benutzerabhängig. Unter „Schutz“ verstehen wir, dass das System nicht kompromittiert ist. Das bedeutet, dass die Malware nicht ausgefÃ?hrt wird (oder entfernt/beendet wurde) und keine signifikanten/schÃ?dlichen SystemÃ?nderungen vorliegen. Eine Outbound-Firewall-Warnung ÃŒber einen laufenden Malware-Prozess, die fragt, ob der Datenverkehr vom Arbeitsplatz des Benutzers zum Internet blockiert werden soll, ist zu wenig, zu spÀt und wird von uns nicht als Schutz angesehen.
Vorbereitung auf jeden Prüfungstag
Jeden Morgen werden alle verfügbaren Sicherheitssoftware-Updates heruntergeladen und installiert, und es wird ein neues Basis-Image für diesen Tag erstellt. Dadurch wird sichergestellt, dass selbst in dem Fall, dass das Sicherheitsprodukt im Laufe des Tages keine größere Aktualisierung erfährt (Produkte werden aktualisiert, bevor jeder Testfall) oder nicht erreichbar ist, würde er zumindest die Aktualisierungen des Morgens verwenden, wie sie dem Benutzer in der realen Welt passieren würden.
Prüfzyklus für jede schädliche URL
Vor dem Aufrufen jeder neuen bösartigen URL/jedes neuen Testfalls aktualisieren wir die Programme/Signaturen. Neue Hauptproduktversionen (d. h. die erste Ziffer der Build-Nummer ist anders) werden einmal zu Beginn des Monats installiert, weshalb wir in jedem Monatsbericht nur die Hauptversionsnummer des Produkts angeben. Unsere Testsoftware beginnt mit der Überwachung des PCs, so dass alle von der Malware vorgenommenen Änderungen aufgezeichnet werden. Darüber hinaus überprüfen die Erkennungsalgorithmen, ob das Antivirenprogramm die Malware erkennt. Nach jedem Testfall wird der Rechner in seinen sauberen Zustand zurückversetzt.
Protection
Sicherheitsprodukte sollten den PC des Benutzers schützen. Es ist nicht sehr wichtig, zu welchem Zeitpunkt der Schutz erfolgt. Er kann beim Surfen auf der Website (z. B. Schutz durch URL-Blocker), beim Versuch, einen Exploit auszuführen, beim Herunterladen/Erstellen der Datei oder bei der Ausführung der Malware (entweder durch den Exploit oder durch den Benutzer) erfolgen. Nachdem die Malware ausgeführt wurde (falls sie nicht zuvor blockiert wurde), warten wir einige Minuten auf bösartige Aktionen und geben z. B. Verhaltensblockern Zeit, zu reagieren und die von der Malware ausgeführten Aktionen zu beheben. Wird die Malware nicht erkannt und ist das System tatsächlich infiziert/kompromittiert, geht der Prozess zu "System kompromittiert" über. Wenn eine Benutzerinteraktion erforderlich ist und der Benutzer entscheiden muss, ob etwas bösartig ist, und im Falle der schlechtesten Benutzerentscheidung das System kompromittiert wird, bewerten wir dies als "benutzerabhängig". Aus diesem Grund können die gelben Balken im Ergebnisdiagramm entweder als geschützt oder nicht geschützt interpretiert werden (es liegt an jedem einzelnen Benutzer zu entscheiden, was er/sie in dieser Situation wahrscheinlich tun würde).
Aufgrund des dynamischen Charakters des Tests, d.h. der Nachahmung realer Bedingungen, und der Funktionsweise verschiedener Technologien (z.B. Cloud-Scanner, Reputationsdienste usw.) ist es eine Tatsache, dass solche Tests nicht in der Weise wiederholt oder repliziert werden können, wie dies z.B. bei statischen Erkennungsraten-Tests möglich ist. In jedem Fall protokollieren wir so viele Daten wie möglich, um unsere Erkenntnisse und Ergebnisse zu untermauern. Die Hersteller sind aufgefordert, nützliche Protokollfunktionen in ihre Produkte einzubauen, die im Falle von Streitigkeiten die gewünschten zusätzlichen Daten liefern können. Nach jedem Testmonat erhalten die Hersteller die Möglichkeit, unsere Schlussfolgerungen zu den kompromittierten Fällen anzufechten, so dass wir erneut prüfen können, ob es vielleicht Probleme bei der Automatisierung oder bei unserer Analyse der Ergebnisse gab.
Bei Cloud-Produkten können wir nur die Ergebnisse berücksichtigen, die die Produkte zum Zeitpunkt der Prüfung in unserem Labor erzielt haben. Manchmal sind die von den Sicherheitsanbietern bereitgestellten Cloud-Dienste aufgrund von Fehlern oder Wartungsausfällen der Anbieter nicht verfügbar, aber diese Ausfallzeiten werden den Nutzern von den Anbietern oft nicht mitgeteilt. Dies ist auch ein Grund, warum Produkte, die sich zu sehr auf Cloud-Dienste verlassen (und keine lokalen Heuristiken, Verhaltensblocker usw. einsetzen), riskant sein können, da in solchen Fällen die von den Produkten gebotene Sicherheit erheblich abnehmen kann. Cloud-Signaturen/Reputation sollten in die Produkte implementiert werden, um die anderen lokalen/Offline-Schutzfunktionen zu ergänzen, sie aber nicht vollständig zu ersetzen, da z.B. Offline-Cloud-Dienste bedeuten würden, dass die PCs höheren Risiken ausgesetzt sind.
Testfälle
Wir versuchen, sichtbare und relevante bösartige Websites/Malware zu verwenden, die derzeit im Umlauf sind und eine Gefahr für normale Benutzer darstellen. Wir versuchen in der Regel, so viele funktionierende Drive-by-Exploits einzubeziehen, wie wir finden - diese werden in der Regel von praktisch allen wichtigen Sicherheitsprodukten gut abgedeckt, was ein Grund dafür sein könnte, dass die Ergebnisse relativ hoch ausfallen. Der Rest sind URLs, die direkt auf ausführbare Malware-Dateien verweisen. Dadurch wird die Malware-Datei heruntergeladen und so ein Szenario nachgestellt, in dem der Benutzer durch Social Engineering dazu verleitet wird, Links in Spam-Mails oder auf Websites zu folgen oder einen Trojaner oder andere bösartige Software zu installieren.
Wir verwenden unser eigenes Crawling-System, um kontinuierlich nach bösartigen Websites zu suchen und bösartige URLs zu extrahieren (einschließlich gespammter bösartiger Links). Wir suchen auch manuell nach bösartigen URLs. Wenn unser hauseigener Crawler an einem Tag nicht genügend gültige bösartige URLs findet, haben wir einige externe Forscher beauftragt, zusätzliche bösartige URLs bereitzustellen (zunächst für die ausschließliche Verwendung durch AV-Comparatives) und nach zusätzlichen (Re-)Quellen zu suchen.
Bei dieser Art von Tests ist es sehr wichtig, genügend Testfälle zu verwenden. Wird bei Vergleichstests eine unzureichende Anzahl von Mustern verwendet, deuten Unterschiede in den Ergebnissen möglicherweise nicht auf tatsächliche Unterschiede in den Schutzfähigkeiten der getesteten Produkte hin. Weitere Einzelheiten finden Sie hier. Bei unseren Tests werden mehr Testfälle (Samples) pro Produkt und Monat verwendet als bei ähnlichen Tests anderer Prüflabors. Aufgrund der dadurch erzielten höheren statistischen Signifikanz betrachten wir alle Produkte in jeder Ergebnisgruppe als gleich wirksam, wobei wir davon ausgehen, dass die Rate der False-Positives (FPs) unter dem Branchendurchschnitt liegt.
Hierarchische Clusteranalyse
Das Dendrogramm (mit durchschnittlicher Verknüpfung zwischen den Gruppen) zeigt die Ergebnisse der hierarchischen Clusteranalyse. Es zeigt an, auf welchem Ähnlichkeitsniveau die Cluster miteinander verbunden sind. Die rot eingezeichnete Linie definiert den Grad der Ähnlichkeit. Jeder Schnittpunkt steht für eine Gruppe (in diesem Fall 4 Gruppen). Produkte, die überdurchschnittlich hohe FPs hatten (falsch blockierte Punkte), sind rot markiert (und werden nach dem unten stehenden Ranking-System herabgestuft).
Ranking-System
Cluster 4 | Cluster 3 | Cluster 2 | Cluster 1 |
|
Test-Ergebnisse
Nachstehend finden Sie eine Übersicht über die einzelnen Testmonate:
August 2012 - 488 Testfälle
September 2012 - 519 Testfälle
Oktober 2012 - 523 Testfälle
November 2012 - 476 Testfälle
Wir geben in diesem Bericht absichtlich keine exakten Zahlen für die einzelnen Monate an, um zu vermeiden, dass die geringfügigen Unterschiede einiger weniger Fälle dazu missbraucht werden, zu behaupten, dass ein Produkt in einem bestimmten Monat und bei einer bestimmten Testsatzgröße besser ist als das andere. Wir geben die Gesamtzahlen in den Gesamtberichten an, wo die Größe der Testgruppe größer ist und größere Unterschiede beobachtet werden können.
False Positives (False Alarm) Test - Ergebnis
Der Fehlalarmtest im dynamischen "Real-World"-Gesamtproduktschutztest besteht aus zwei Teilen: fälschlicherweise blockierte Domänen (beim Browsen) und fälschlicherweise blockierte Dateien (beim Herunterladen/Installieren). Es ist notwendig, beide Szenarien zu testen, da das Testen nur eines der beiden oben genannten Fälle Produkte benachteiligen könnte, die sich hauptsächlich auf eine Art von Schutzmethode konzentrieren, entweder URL-Filterung oder auf Zugriff/Verhalten/Reputation basierenden Dateischutz.
Falsch blockierte Domains (beim Browsen)
Wir verwendeten etwa eintausend zufällig ausgewählte populäre Domänen. Gesperrte, nicht bösartige Domänen/URLs wurden als False Positives (FPs) gezählt. Die fälschlicherweise gesperrten Domains wurden den jeweiligen Anbietern zur Überprüfung gemeldet und sollten nun nicht mehr gesperrt sein.
Bei der Blockierung ganzer Domains riskieren die Security-Produkte nicht nur einen Vertrauensverlust in ihre Warnmeldungen, sondern verursachen möglicherweise auch finanzielle Schäden (neben der Schädigung des Rufs der Website) für die Domaininhaber, einschließlich des Verlusts von z.B. Werbeeinnahmen. Daher empfehlen wir den Anbietern dringend, ganze Domains nur dann zu blockieren, wenn ihr einziger Zweck darin besteht, schadhaften Code zu transportieren/zu verbreiten, und ansonsten nur die bösartigen Seiten zu blockieren (sofern sie tatsächlich schadhaft sind). Produkte, die dazu neigen, URLs z.B. auf der Grundlage ihrer Reputation zu blockieren, sind unter Umständen anfälliger für dieses Problem und schneiden in Protection Tests auch besser ab, da sie viele unbeliebte/neue Websites blockieren können.
Falsch blockierte Dateien (beim Herunterladen/Installieren)
Wir haben etwa zweitausend verschiedene Anwendungen verwendet, die entweder als Top-Downloads oder als neue/empfohlene Downloads von verschiedenen Download-Portalen aufgeführt sind. Die Anwendungen wurden von den Original-Websites der Software-Entwickler (und nicht vom Host des Download-Portals) heruntergeladen, auf der Festplatte gespeichert und installiert, um zu sehen, ob sie in irgendeiner Phase dieses Verfahrens blockiert werden. Zusätzlich haben wir einige saubere Dateien aufgenommen, die in den vergangenen Monaten im Rahmen des Real-World Protection Test gefunden und beanstandet wurden.
Die Aufgabe von Security-Produkten ist es, vor bösartigen Websites/Dateien zu schützen und nicht, den Zugang zu bekannten und beliebten Anwendungen und Websites zu zensieren oder einzuschränken. Wenn der Nutzer bewusst eine hohe Sicherheitseinstellung wählt, die davor warnt, dass sie einige legitime Websites oder Dateien blockieren kann, kann dies als akzeptabel angesehen werden. Als Standardeinstellung, bei der der Nutzer nicht gewarnt wurde, halten wir dies jedoch nicht für akzeptabel. Da der Test zu bestimmten Zeitpunkten durchgeführt wird und FPs bei sehr beliebter Software/Websites in der Regel innerhalb weniger Stunden bemerkt und behoben werden, wäre es überraschend, wenn FPs bei sehr beliebten Anwendungen auftreten würden. Aus diesem Grund wären FP-Tests, die z.B. nur mit sehr beliebten Anwendungen durchgeführt werden oder die nur die 50 wichtigsten Dateien von Whitelist-/überwachten Download-Portalen verwenden, eine Verschwendung von Zeit und Ressourcen. Den Nutzern ist es egal, ob sie mit Malware infiziert sind, die nur sie selbst betrifft, ebenso wie es ihnen egal ist, ob die Anzahl der FP nur sie selbst betrifft. Auch wenn es wünschenswert ist, dass wenige Nutzer von FPs betroffen sind, sollte es das Ziel sein, FPs zu vermeiden und sich vor bösartigen Dateien zu schützen, unabhängig davon, wie viele Nutzer betroffen sind oder angesprochen werden. Die Prävalenz von FPs auf der Grundlage von Benutzerdaten ist für interne QA-Tests von AV-Anbietern von Interesse, aber für den normalen Nutzer ist es wichtig zu wissen, wie genau sein Produkt zwischen sauberen und schädlichen Dateien unterscheidet.
Die folgende Tabelle zeigt die Anzahl der fälschlicherweise blockierten Domains/Dateien:
Falsch blockierte saubere Domänen/Dateien (gesperrt / benutzerabhängig[1]) |
Falsch blockiertes Ergebnis [niedriger ist besser] |
|
Qihoo | – / 1 (1) | 0.5 |
AVG, Tencent | 1 / – (1) | 1 |
Avast, Kaspersky | 1 / 1 (2) | 1.5 |
ESET, G DATA, Panda | 2 / – (2) | 2 |
Bitdefender | 4 / – (4) | 4 |
AhnLab, AVIRA, eScan, Fortinet, PC Tools | 5 / – (5) | 5 |
BullGuard | 4 / 2 (6) | 5 |
Durchschnitt (6) | Durchschnitt (6) | |
Webroot | 7 / 2 (9) | 8 |
Trend Micro | 10 / – (10) | 10 |
Sophos | 12 / – (12) | 12 |
GFI Vipre | 15 / – (15) | 15 |
F-Secure | 17 / 1 (18) | 17.5 |
McAfee | 20 / – (20) | 20 |
[1] Obwohl die "User Dependent" FPs für den Nutzer äußerst ärgerlich sind (insbesondere bei sauberen Dateien), wurden sie bei der "False-Positives-Rate" (FPs) nur zur Hälfte berücksichtigt, wie auch bei der Schutzrate.
Um festzustellen, welche Produkte aufgrund der Anzahl der fälschlicherweise blockierten Websites/Dateien in unserem Vergabesystem herabgestuft werden müssen, haben wir unsere Entscheidung mit statistischen Methoden und anhand der durchschnittlichen Punktzahlen untermauert. Die folgenden Produkte mit überdurchschnittlich hohen FPs wurden herabgestuft: F-Secure, GFI Vipre, McAfee, Sophos, Trend Micro und Webroot
Zusammenfassung - Ergebnis
Testzeitraum: August - November 2012 (2006 Testfälle)
Das nachstehende Diagramm zeigt die Gesamtschutzrate (alle Proben), einschließlich der Mindest- und Höchstschutzraten für die einzelnen Monate.
Blocked | User-Dependent | Kompromitiert | Schutzrate [Blocked % + (User Dependent % / 2)] | Cluster | |
---|---|---|---|---|---|
Trend Micri | 2005 | - | 1 | 100% | 1 |
BitDefender | 2004 | - | 2 | 99.9% | 1 |
F-Secure | 2002 | - | 4 | 99.8% | 1 |
G Data | 2002 | - | 4 | 99.8% | 1 |
Qihoo | 1989 | 7 | 10 | 99.3% | 1 |
Kaspersky | 1991 | 2 | 13 | 99.3% | 1 |
BullGuard | 1963 | 36 | 7 | 98.8% | 1 |
AVIRA | 1946 | 28 | 32 | 97.7% | 2 |
Sophos | 1959 | - | 47 | 97.7% | 2 |
Avast | 1915 | 65 | 26 | 97.1% | 2 |
Tencent | 1918 | 55 | 33 | 97% | 2 |
ESET | 1944 | - | 62 | 96.9% | 2 |
PC-Werkzeuge | 1879 | 111 | 19 | 96.4% | 3 |
AVG | 1895 | 69 | 42 | 96.2% | 3 |
eScan | 1929 | - | 77 | 96.2% | 3 |
GFI Vipre | 1920 | - | 86 | 95.7% | 3 |
McAfee | 1913 | - | 93 | 95.4% | 3 |
Panda | 1910 | - | 96 | 95.2% | 3 |
Fortinet | 1895 | - | 111 | 94.5% | 4 |
Webroot | 1807 | 154 | 45 | 93.9% | 4 |
AhnLab | 1871 | - | 135 | 93.3% | 4 |
In diesem Real-World Protection Test erreichte Award-Levels
Die Auszeichnungen werden von den Testern auf der Grundlage der beobachteten Testergebnisse (nach Konsultation statistischer Modelle) beschlossen und vergeben. Microsoft wurde als Basis betrachtet und daher außer Konkurrenz getestet, weshalb es nicht auf der Seite mit den Auszeichnungen aufgeführt ist. Die Punktzahl von Microsoft Windows Defender wäre gleichbedeutend mit STANDART. Die folgenden Auszeichnungen beziehen sich auf die Ergebnisse, die in diesem dynamischen "Real-World"-Schutztest für das gesamte Produkt erzielt wurden:
* Diese Produkte wurden aufgrund der Fehlalarme schlechter bewertet.
Anmerkungen
Die meisten Betriebssysteme verfügen bereits über eigene Firewalls und automatische Aktualisierungen und fragen den Benutzer vor dem Herunterladen oder Ausführen von Dateien, ob er dies wirklich tun will, und warnen ihn, dass das Herunterladen/Ausführen von Dateien gefährlich sein kann. E-Mail-Clients und Web-Mails enthalten ebenfalls Spam-Filter. Außerdem verfügen die meisten Browser über Popup-Blocker, Phishing-/URL-Filter und die Möglichkeit, Cookies zu entfernen. Dies sind nur einige der eingebauten Schutzfunktionen, aber trotz all dieser Maßnahmen können Systeme trotzdem infiziert werden. Der Grund dafür ist in den meisten Fällen der normale Benutzer, der durch Social Engineering dazu verleitet werden kann, bösartige Websites zu besuchen oder bösartige Software zu installieren. Die Benutzer erwarten, dass ein Sicherheitsprodukt sie nicht fragt, ob sie eine Datei wirklich ausführen wollen, sondern dass das Sicherheitsprodukt das System in jedem Fall schützt, ohne dass sie darüber nachdenken müssen, und ungeachtet dessen, was sie tun (z. B. das Ausführen unbekannter Dateien). Wir versuchen, gute und leicht lesbare Testberichte für Endbenutzer zu liefern. Wir arbeiten ständig daran, unsere automatisierten Systeme weiter zu verbessern, um einen besseren Überblick über die Produktfähigkeiten zu erhalten.
Copyright und Haftungsausschluss
Diese Veröffentlichung ist Copyright © 2012 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.
Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.
AV-Comparatives
(Dezember 2012)