Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.
Bitte beachten Sie, dass Sie sich durch die weitere Nutzung dieser Website mit den Bedingungen unserer Politik zum Schutz der Privatsphäre und des Datenschutzes .
Einige unserer Partnerdienste befinden sich in den USA. Nach Rechtsprechung des Europäischen Gerichtshofs existiert derzeit in den USA kein angemessener Datenschutz. Es besteht das Risiko, dass Ihre Daten durch US-Behörden kontrolliert und überwacht werden. Dagegen können Sie keine wirksamen Rechtsmittel vorbringen.
Akzeptieren

File Detection Test März 2013

Datum März 2013
Sprache English
Letzte Revision 4. April 2013

von bösartiger Software einschließlich Fehlalarmtest


Datum der Veröffentlichung 2013-04-10
Datum der Überarbeitung 2013-04-04
Prüfzeitraum März 2013
Anzahl der Testfälle 136610
Online mit Cloud-Konnektivität checkbox-checked
Update erlaubt checkbox-checked
False-Alarm Test inklusive checkbox-checked
Plattform/OS Microsoft Windows

Einführung

Der Dateierkennungstest ist einer der aussagekräftigsten Faktoren zur Bewertung der Wirksamkeit einer Antiviren-Engine. Diese Testberichte werden zweimal im Jahr veröffentlicht, einschließlich eines Fehlalarmtests. Weitere Einzelheiten entnehmen Sie bitte den Dokumenten zur Methodik sowie den Informationen auf unserer Website. In diesem Test wurden die folgenden 20 aktuellen Sicherheitsprodukte anhand von 136610 prävalenten Malware-Samples getestet.

Geprüfte Produkte

Testverfahren

Jedes Testsystem läuft unter Microsoft Windows 7 64-Bit mit einem entsprechenden Sicherheitsprodukt, das zuletzt am 28.. Februar 2013. Die Malware-Sets wurden auf dem 22. Februar 2013. Die meisten Produkte werden standardmäßig mit den höchsten Einstellungen ausgeführt. Einige Produkte schalten automatisch auf die höchsten Einstellungen, wenn Malware gefunden wird (z. B. Avast, Symantec, Trend Micro usw.). Dies macht es unmöglich, mit echten "Standardeinstellungen" gegen verschiedene Malware zu testen. Um vergleichbare Ergebnisse zu erhalten, setzen wir die wenigen verbleibenden Produkte auf die höchsten Einstellungen oder belassen sie auf niedrigeren Einstellungen - in Übereinstimmung mit den jeweiligen Anbietern. Wir bitten die Hersteller, standardmäßig starke Einstellungen vorzunehmen, d.h. ihre Standardeinstellungen auf die höchste Erkennungsstufe zu setzen (z.B. AVIRA, Kaspersky, etc.), insbesondere für geplante oder vom Benutzer initiierte Scans. Dies ist in der Regel bereits bei On-Access-Scans und/oder On-Execution-Scans der Fall (z. B. verwenden ESET und Kaspersky höhere heuristische Einstellungen, wenn Dateien ausgeführt werden). Wir erlauben den wenigen verbleibenden Anbietern (die bei On-Demand-Scans nicht die höchsten Einstellungen verwenden), mit höheren Einstellungen getestet zu werden, da sie z. B. bei On-Access/On-Execution standardmäßig höhere Einstellungen verwenden, so dass die Ergebnisse des Dateierkennungstests näher an der Verwendung in der Praxis liegen (da die Einstellungen bei On-Access-Scans höher sind). Wir bitten die Hersteller, paranoide Einstellungen in der Benutzeroberfläche zu entfernen, die zu hoch sind, um für normale Benutzer von Nutzen zu sein (z.B. AVG, F-Secure, Sophos, etc.). Im Folgenden finden Sie einige Hinweise zu den verwendeten Einstellungen (alle Dateien scannen, Archive scannen, nach PUA scannen, mit Cloud scannen usw. ist immer aktiviert):

AVG, F-Secure, Sophos: gebeten, mit ihren Standardeinstellungen getestet und ausgezeichnet zu werden (d. h. ohne Verwendung ihrer erweiterten Heuristik-/Verdachtserkennungs-/Grundscaneinstellungen).
AVIRA, Kaspersky: gebeten, mit einer auf hoch/erweitert eingestellten Heuristik getestet zu werden.

Auf jedem Testsystem wird der Malware-Satz gescannt. Die vom Sicherheitsprodukt gemachten Erkennungen werden notiert und analysiert. Obwohl bei diesem Test keine Proben ausgeführt wurden, haben wir Fälle in Betracht gezogen, in denen Malware beim Zugriff, aber nicht bei Bedarf erkannt wird. Der Test wird daher File Detection Test genannt (im Gegensatz zu den früheren On-Demand-Tests), da On-Access-Scans berücksichtigt werden.

Bitte beachten Sie: Mehrere Produkte nutzen Cloud-Technologien, die eine aktive Internetverbindung erfordern. Unsere Tests werden mit einer aktiven Internetverbindung durchgeführt. Benutzer sollten sich bewusst sein, dass die Erkennungsraten in einigen Fällen drastisch niedriger sein können, wenn der Scan offline durchgeführt wird (oder wenn der Cloud-Dienst aus verschiedenen Gründen nicht erreichbar ist). Die Cloud sollte als zusätzlicher Vorteil/Funktion zur Erhöhung der Erkennungsraten (sowie der Reaktionszeiten und der Unterdrückung von Fehlalarmen) betrachtet werden und nicht als vollständiger Ersatz für lokale Offline-Erkennungen. Die Anbieter sollten sicherstellen, dass die Benutzer angemessen gewarnt werden, falls die Verbindung zur Cloud unterbrochen wird, was den Schutz erheblich beeinträchtigen und z. B. einen eingeleiteten Scan unbrauchbar machen kann. Während wir in unserem Test prüfen, ob die Cloud-Dienste der jeweiligen Sicherheitsanbieter erreichbar sind, sollten sich die Nutzer darüber im Klaren sein, dass online zu sein nicht unbedingt bedeutet, dass der Cloud-Dienst der von ihnen genutzten Produkte auch erreichbar ist bzw. ordnungsgemäß funktioniert. Tatsächlich haben Produkte mit Cloud-Funktionalität manchmal verschiedene Netzwerkprobleme, aufgrund derer keine Cloud-Sicherheit bereitgestellt wird, ohne dass der Benutzer gewarnt wird. AMTSO verfügt über einen rudimentären Test, um die ordnungsgemäße Funktion von Cloud-gestützten Produkten zu überprüfen.

Testfälle

Der verwendete Testsatz wurde unter Hinzuziehung von Telemetriedaten erstellt, um die am weitesten verbreiteten Malware-Samples aus den letzten Wochen/Monaten vor dem Testdatum einzubeziehen, die die Nutzer in der Praxis gefährden, und bestand aus 136610 Samples. Darüber hinaus wurde die Verteilung der Familien im Testsatz anhand der Familienprävalenz gewichtet und auf der Grundlage der globalen Telemetriedaten von Microsoft erstellt. Das bedeutet, dass je verbreiteter eine Malware-Familie ist, desto mehr Proben aus dieser Familie sind in der Testgruppe enthalten.

Hierarchische Clusteranalyse

Dieses Dendrogramm zeigt die Ergebnisse der Clusteranalyse. Es zeigt an, auf welchem Ähnlichkeitsniveau die Cluster miteinander verbunden sind. Die rot eingezeichnete Linie definiert den Grad der Ähnlichkeit. Jeder Schnittpunkt zeigt eine Gruppe an.

Ranking-System

Die Malware-Erkennungsraten werden von den Testern gruppiert, nachdem sie die mit der hierarchischen Clustermethode erstellten Cluster betrachtet haben. Durch die Verwendung von Clustern gibt es keine festen Schwellenwerte, die erreicht werden müssen, da sich die Schwellenwerte auf der Grundlage der Ergebnisse ändern. Die Tester können die Cluster rationell gruppieren und sich nicht nur auf die Cluster verlassen, um zu vermeiden, dass z. B. alle Produkte, die in Zukunft schlecht abschneiden würden, ohnehin keine hohe Bewertung erhalten.

Erkennungsrate Cluster/Gruppen
(von den Testern nach Konsultation statistischer Methoden angegeben)
4
3
2
1
Sehr wenige (0-2 FPs)
Wenig (3-15 FP's)
TESTED
STANDARD
ADVANCED
ADVANCED+
Viele (16-50 FPs)
TESTED
TESTED
STANDARD
ADVANCED
Sehr viele (51-100 FPs)
TESTED
TESTED
TESTED
STANDARD
Verrückt viele (über 100 FPs)
TESTED
TESTED
TESTED
TESTED

Test-Ergebnisse

Der verwendete Testsatz enthielt 136610 aktuelle/prävalente Proben aus den letzten Wochen/Monaten. Wir schätzen die verbleibende Fehlerspanne bei den endgültigen Prozentsätzen auf unter 0,2%.

Gesamtentdeckungsraten (in Gruppen zusammengefasst)

Bitte beachten Sie auch die Falschalarmraten, wenn Sie sich die nachstehenden Dateierkennungsraten ansehen.

1.G Data99.9%
2.Avira, Tencent, Kingsoft99.6%
3.F-Secure99.5%
4.Qihoo99.4%
5.Bitdefender, BullGuard, eScan, Emsisoft, Panda99.3%
6.Kaspersky99.2%
7.Fortinet, ThreatTrack98.6%
8.AVG, Trend Micro98.4%
9.McAfee, Sophos98.0%
10.Avast97.8%
11.ESET97.5%
12.AhnLab92.3%
13.Symantec91.2%

Grafik der verpassten Proben (niedriger ist besser)

Das nachstehende Diagramm zeigt die Testergebnisse im Vergleich zu einer von Microsoft Windows bereitgestellten "Out-of-Box"-Malware-Erkennung. In Windows 8 wird diese von Windows Defender bereitgestellt, der standardmäßig mit dem Betriebssystem vorinstalliert ist. Das Äquivalent in Windows 7 ist Microsoft Security Essentials, das nicht vorinstalliert ist, aber als Option über den Windows Update-Dienst kostenlos hinzugefügt werden kann. Wir verwenden dies, um den Wert dieser Funktion - d. h. der statischen Malware-Erkennung - zu vergleichen, die den Benutzern von Antiviren-Lösungen anderer Anbieter zur Verfügung gestellt wird. Diese Vergleiche werden von nun an auch in anderen Tests durchgeführt, z. B. monatlich in unseren Real-World Protection Tests (für Produkte, die an den öffentlichen Haupttestreihen teilnehmen), die auf unserer Website verfügbar sind.

False Positives (False Alarm) Test - Ergebnis

Um die Qualität der Dateierkennungsfunktionen (Unterscheidung zwischen guten und bösartigen Dateien) von Antivirenprodukten besser beurteilen zu können, bieten wir einen Fehlalarmtest an. Falsche Alarme können manchmal genauso viel Ärger verursachen wie eine echte Infektion. Bitte berücksichtigen Sie die Fehlalarmrate bei der Betrachtung der Erkennungsraten, da ein Produkt, das anfällig für Fehlalarme ist, leichter höhere Erkennungsraten erzielt.

1.Fortinet5keine / sehr wenige FPs
2.Kaspersky, Sophos6 wenige FPs
3.Avira, Tencent8
4.Bitdefender, BullGuard, ESET9
5.F-Secure, Kingsoft11
6.Qihoo12
7.Avast14
8.McAfee15
9.AhnLab, G Data19
10.AVG, eScan21 viele FPs
11.Trend Micro22
12.Symantec23
13.Panda28
14.ThreatTrack30
15.Emsisoft38

Einzelheiten zu den entdeckten Fehlalarmen (einschließlich ihrer vermuteten Häufigkeit) sind in einem separaten Bericht zu finden, der unter folgender Adresse abrufbar ist: http://www.av-comparatives.org/wp-content/uploads/2013/03/avc_fp_mar2013.pdf

Zusammenfassung - Ergebnis

Ein Produkt, das einen hohen Prozentsatz bösartiger Dateien erkennt, aber unter Fehlalarmen leidet, ist nicht unbedingt besser als ein Produkt, das weniger bösartige Dateien erkennt, aber weniger Fehlalarme erzeugt.

Das folgende Diagramm zeigt die kombinierten Dateierkennungsraten und Fehlalarme.

In diesem Dateierkennungstest erreichte Auszeichnungsstufen

AV-Comparatives bietet Ranking-Auszeichnungen. Da dieser Bericht auch die rohen Erkennungsraten und nicht nur die Auszeichnungen enthält, können sich erfahrene Benutzer, die sich z. B. nicht um Fehlalarme kümmern, auf diese Bewertung allein verlassen, wenn sie dies möchten. Die Auszeichnungen basieren nicht nur auf den Erkennungsraten - auch Fehlalarme, die in unseren sauberen Dateien gefunden wurden, werden berücksichtigt.

* Diese Produkte wurden aufgrund der Fehlalarme schlechter bewertet.

Anmerkungen

Informationen über zusätzliche Engines/Signaturen von Drittanbietern, die in den Produkten verwendet werden: BullGuard, Emsisoft, eScan und F-Secure basieren auf der Bitdefender-Engine, während Kingsoft und Tencent basieren auf dem AVIRA eninge. Qihoo basiert auf der AVIRA- und Bitdefender-Engine. Die getestete Version von G Data (2013) basierte auf den Engines von Avast und Bitdefender. G DATA 2014 basiert auf der Bitdefender-Engine; die Ergebnisse in diesem Bericht von G DATA 2013 sind nicht auf G DATA 2014 anwendbar.

Microsoft Security Essentials wird derzeit als Basislösung betrachtet und daher außer Konkurrenz getestet, weshalb es nicht in die Seite mit den Auszeichnungen aufgenommen wird. Die Bewertung von Microsoft Security Essentials würde TESTED entsprechen. Wir haben zusätzlich auch den in Windows 8 enthaltenen Windows Defender getestet (wir haben die gleichen Ergebnisse wie bei Security Essentials unter Windows 7 festgestellt).

Wir haben Symantec Norton in diesen Test aufgenommen, auch wenn sie sich nicht um die Aufnahme in unsere Testreihe beworben haben, da die Ergebnisse von unseren Lesern und der Presse stark nachgefragt wurden.

Auch wenn wir verschiedene Tests durchführen und verschiedene Aspekte der Antiviren-Software aufzeigen, sollten die Benutzer die Software selbst bewerten und sich ihre eigene Meinung bilden. Testdaten oder Rezensionen bieten lediglich Anhaltspunkte zu einigen Aspekten, die der Benutzer nicht selbst beurteilen kann. Wir empfehlen den Lesern, zusätzlich andere unabhängige Testergebnisse verschiedener bekannter und etablierter unabhängiger Prüforganisationen zu konsultieren, um sich einen besseren Überblick über die Erkennungs- und Schutzfähigkeiten der verschiedenen Produkte in unterschiedlichen Testszenarien und mit verschiedenen Test-Sets zu verschaffen. Eine Liste verschiedener seriöser Testlabore finden Sie auf unserer Website.

Copyright und Haftungsausschluss

Diese Veröffentlichung ist Copyright © 2013 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.

Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.

AV-Comparatives
(April 2013)