Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.
Bitte beachten Sie, dass Sie durch die weitere Nutzung dieser Website den Bedingungen unserer Privacy and Data Protection Policy zustimmen.
Akzeptieren

Malware Protection Test März 2017

Datum März 2017
Sprache Deutsch
Letzte Revision 12. April 2017

File Detection Test mit Execution einschließlich False-Alarm Test


Datum der Veröffentlichung 2017-04-12
Datum der Überarbeitung 2017-04-12
Prüfzeitraum März 2017
Anzahl der Testfälle 37999
Online mit Cloud-Konnektivität checkbox-checked
Update erlaubt checkbox-checked
False-Alarm Test inklusive checkbox-checked
Plattform/OS Microsoft Windows

Einführung

Der Test zum Schutz vor Schadsoftware ist eine Erweiterung des in den Vorjahren durchgeführten Datei-Erkennungstests. Aufgrund des erweiterten Umfangs des Tests wird den Lesern empfohlen, die unten beschriebene Methodik zu lesen. Bitte beachten Sie, dass wir nicht empfehlen, ein Produkt nur auf der Grundlage eines einzelnen Tests oder sogar nur einer Art von Test zu kaufen. Vielmehr empfehlen wir den Lesern, auch unsere anderen aktuellen Testberichte zu lesen und Faktoren wie Preis, Benutzerfreundlichkeit, Kompatibilität und Support zu berücksichtigen. Die Installation einer kostenlosen Testversion ermöglicht es, ein Programm vor dem Kauf im täglichen Gebrauch zu testen.

Im Prinzip wurden für diesen Test Internet-Sicherheitssuites für Privatanwender verwendet. Einige Anbieter baten jedoch darum, ihr (kostenloses) Antivirus- oder Unternehmenssicherheitsprodukt zu testen. Die CrowdStrike, eScan, Fortinet und Seqrite Die hier getesteten Programme sind Sicherheitsprodukte für Unternehmen.

Geprüfte Produkte

Informationen über zusätzliche Engines/Signaturen von Drittanbietern, die in den Produkten verwendet werden: Adaware, BullGuard, Emsisoft, eScan, F-Secure, Lavasoft, Seqrite, Tencent (englische Fassung) und VIPRE verwenden die Bitdefender Engine. AVG ist eine umbenannte Version von Avast.

Alle Produkte wurden auf einem aktuellen 64-Bit Microsoft Windows 10 Professional RS1 System installiert. Die Produkte wurden Anfang März mit Standardeinstellungen und unter Verwendung der neuesten Updates getestet.

Testverfahren

Der Malware Protection Test bewertet die Fähigkeit eines Sicherheitsprogramms, ein System vor, während oder nach der Ausführung vor einer Infektion durch bösartige Dateien zu schützen. Die für jedes getestete Produkt angewandte Methodik ist wie folgt. Vor der Ausführung werden alle Testmuster vom Sicherheitsprogramm einer On-Access- und einer On-Demand-Prüfung unterzogen, wobei jede dieser Prüfungen sowohl offline als auch online durchgeführt wird. Alle Muster, die bei keinem dieser Scans erkannt wurden, werden dann auf dem Testsystem mit Internet- bzw. Cloud-Zugang ausgeführt, damit z. B. die Verhaltenserkennungsfunktionen zum Tragen kommen können. Wenn ein Produkt nicht alle von einem bestimmten Malware-Muster vorgenommenen Änderungen innerhalb eines bestimmten Zeitraums verhindert oder rückgängig macht, gilt dieser Testfall als Fehlschlag. Wenn der Benutzer entscheiden soll, ob ein Malware-Muster ausgeführt werden darf, und im Falle der schlechtesten Benutzerentscheidung das System kompromittiert wird, wird der Testfall als "benutzerabhängig" eingestuft.

Testfälle

Der für diesen Test verwendete Testsatz bestand aus 37.999 Malware-Samples, die nach Abfrage von Telemetriedaten zusammengestellt wurden, um aktuelle, weit verbreitete Samples einzubeziehen, die die Nutzer in der Praxis gefährden. Die Malware-Varianten wurden in Clustern zusammengefasst, um eine repräsentativere Testgruppe zu bilden (d. h. um eine Überrepräsentation ein und derselben Malware in der Gruppe zu vermeiden). Die Probenerhebung wurde am 24.. Februar 2017.

Ranking-System

Hierarchische Clusteranalyse

Dieses Dendrogramm zeigt die Ergebnisse der Clusteranalyse über die Online-Schutzraten. Es zeigt an, auf welchem Ähnlichkeitsniveau die Cluster miteinander verbunden sind. Die rot eingezeichnete Linie definiert den Grad der Ähnlichkeit. Jeder Schnittpunkt zeigt eine Gruppe an.

Weitere Informationen zur Clusteranalyse finden Sie in diesem leicht verständlichen Tutorial: http://strata.uga.edu/software/pdf/clusterTutorial.pdf

Die Malware-Schutzraten werden von den Testern gruppiert, nachdem sie sich die mit der hierarchischen Clustermethode gebildeten Cluster angesehen haben. Allerdings halten sich die Tester in Fällen, in denen dies nicht sinnvoll wäre, nicht strikt daran. In einem Szenario, in dem beispielsweise alle Produkte niedrige Schutzraten erreichen, erhalten die Produkte mit den höchsten Werten nicht unbedingt die höchstmögliche Auszeichnung.

Schutzrate Cluster/Gruppen
(von den Testern nach Konsultation statistischer Methoden angegeben)
4
3
2
1
Sehr wenige (0-1 FPs)
Wenig (2-10 FP's)
TESTED
STANDARD
ADVANCED
ADVANCED+
Viele (11-50 FPs)
TESTED
TESTED
STANDARD
ADVANCED
Sehr viele (51-100 FPs)
TESTED
TESTED
TESTED
STANDARD
Auffallend
viele
(über 100 FPs)
TESTED
TESTED
TESTED
TESTED

Alle Produkte, die an diesem Test teilnahmen, erreichten hohe Werte (über 99%) im Vergleich zu einfachen Dateierkennungstests. Hierfür gibt es zwei Gründe. Erstens wird ein repräsentativer Satz weit verbreiteter Malware-Samples verwendet. Zweitens umfasst der Test neben der On-Demand-Erkennung auch die On-Access-Erkennung und den On-Execution-Schutz. Aufgrund des sehr hohen Gesamtniveaus, das auf diese Weise erreicht wird, sind auch die Mindestpunktzahlen, die für die verschiedenen Auszeichnungsstufen erforderlich sind, im Vergleich zu anderen Tests sehr hoch.

Offline- vs. Online-Erkennungsraten

Viele der getesteten Produkte nutzen Cloud-Technologien, wie z.B. Reputationsdienste oder cloudbasierte Signaturen, die nur bei einer aktiven Internetverbindung erreichbar sind. Durch die Durchführung von On-Demand- und On-Access Scans sowohl offline als auch online gibt der Test einen Hinweis darauf, wie cloudabhängig jedes Produkt ist und wie gut es das System schützt, wenn keine Internetverbindung verfügbar ist. Wir würden vorschlagen, dass Anbieter von Produkten, die stark von der Cloud abhängig sind, die Nutzer entsprechend warnen sollten, falls die Verbindung zur Cloud unterbrochen wird, da dies den gebotenen Schutz erheblich beeinträchtigen kann. Während wir in unserem Test prüfen, ob die Cloud-Dienste der jeweiligen Security-Anbieter erreichbar sind, sollten sich die Nutzer darüber im Klaren sein, dass die bloße Tatsache, dass sie online sind, nicht unbedingt bedeutet, dass der Cloud-Dienst ihres Produkts erreichbar ist bzw. ordnungsgemäß funktioniert.

Zur Information der Leser und aufgrund häufiger Anfragen von Magazinen und Analysten haben wir auch angegeben, wie viele der Proben von jedem Sicherheitsprogramm bei den Offline- und Online-Erkennungsscans erkannt wurden.

OFFLINE
Erkennungsrate
ONLINE
Erkennungsrate
ONLINE
Schutzrate
Fehl-
Alarme
Adaware99.7%99.7%99.89%2
Avast98.8%99.8%99.97%20
AVG98.8%99.8%99.97%20
Avira98.0%99.9%99.99%2
Bitdefender99.7%99.7%99.95%2
BullGuard99.7%99.7%99.97%3
CrowdStrike93.4%93.4%99.67%125
Emsisoft99.7%99.7%99.68%4
eScan99.7%99.7%99.97%2
ESET99.7%99.7%99.70%0
F-Secure99.7%99.8%99.92%6
Fortinet99.1%99.1%99.35%4
Kaspersky96.0%99.9%99.98%4
McAfee78.8%99.4%99.62%9
Microsoft98.2%99.4%99.64%0
Panda65.6%99.6%99.98%1
Seqrite99.7%99.7%99.81%3
Symantec86.8%99.8%99.78%96
Tencent99.7%99.7%99.94%3
Trend Micro63.7%98.6%100%29
VIPRE99.7%99.96%99.96%3

Erkennung vs. Schutz

Der File Detection Test, den wir in den vergangenen Jahren durchgeführt haben, war ein reiner Erkennungstest. Das heißt, die Security-Programme wurden nur auf die Fähigkeit getestet, eine schädliche Programmdatei vor der Ausführung zu erkennen. Diese Fähigkeit ist nach wie vor ein wichtiges Merkmal eines Antivirus-Produkts und ist für jeden wichtig, der z.B. prüfen möchte, ob eine Datei harmlos ist, bevor er sie an Freunde, Familie oder Kollegen weiterleitet.

Dieser Malware Protection Test hingegen prüft nicht nur die Erkennungs- Raten der teilnehmenden Programme, sondern auch deren Protection Fähigkeiten, d. h. die Fähigkeit, ein bösartiges Programm daran zu hindern, tatsächlich Änderungen am System vorzunehmen. In manchen Fällen erkennt ein Antivirenprogramm ein Malware-Muster nicht, wenn es inaktiv ist, wohl aber, wenn es ausgeführt wird. Darüber hinaus verwenden einige AV-Produkte eine Verhaltenserkennung, um nach Versuchen eines Programms zu suchen, Systemänderungen vorzunehmen, die typisch für Malware sind, und diese zu blockieren. Unser neuer Malware Protection Test misst die allgemeine Fähigkeit von Sicherheitsprodukten, das System vor, während oder nach der Ausführung von Schadprogrammen zu schützen. Er ergänzt unseren Real-World Protection Test, der seine Malware-Samples von Live-URLs bezieht, so dass Funktionen wie URL-Blocker zum Einsatz kommen können. Der Malware-Schutztest stellt ein Szenario nach, bei dem Malware über ein lokales Netzwerk oder entfernbare Medien wie USB-Flash-Laufwerke (und nicht über das Internet) in ein System eingeschleust wird. Bei beiden Tests wird jede Malware ausgeführt, die von anderen Funktionen nicht erkannt wird, so dass die Funktionen der "letzten Verteidigungslinie" zum Tragen kommen.

Eine bedeutender Vorteil von Cloud-Erkennungsmechanismen ist diese: Malware-Autoren sind ständig auf der Suche nach neuen Methoden zur Umgehung von Erkennungs- und Security-Mechanismen. Die Verwendung von Cloud-Erkennungsdiensten ermöglicht es Anbietern, verdächtige Dateien in Echtzeit zu erkennen und zu klassifizieren, um den Nutzer vor derzeit noch unbekannter Malware zu schützen. Die Tatsache, dass Teile der Schutztechnologien in der Cloud verbleiben, verhindert, dass sich Malware-Autoren schnell an diese aktuellen Erkennungsmechanismen anpassen können.

Test-Ergebnisse

Online-Gesamtschutzraten (in Gruppen zusammengefasst):

Bitte beachten Sie auch die Fehlalarmquoten, wenn Sie sich die nachstehenden Schutzquoten ansehen.

BlockiertUser-DependentKompromittiertSchutzrate
[Blocked % + (User Dependent % / 2)]
Cluster
Trend Micro37999--100%1
AVIRA 37994- 599.99% 1
Kaspersky Lab 37993- 699.98% 1
Panda 37992- 799.98% 1
Avast 37987- 1299.97% 1
AVG 37987- 1299.97% 1
BullGuard 37987- 1299.97% 1
eScan 37987- 1299.97% 1
VIPRE 37984- 1599.96% 1
Bitdefender 37981- 1899.95% 1
Tencent 37978- 2199.94% 1
F-Secure 37968 9 2299.93% 1
Symantec 37916 83-99.89% 2
Adaware 37957- 4299.89% 2
Seqrite 37927 58 1499.89% 2
Emsisoft 37877 117 599.83% 2
ESET 37886- 11399.7% 3
CrowdStrike 37875- 12499.67% 3
Microsoft 37864- 13599.64% 3
McAfee 37854- 14599.62% 3
Fortinet 37751- 24899.35% 4

Der verwendete Testsatz enthielt 37999 aktuelle/prävalente Proben aus den letzten Wochen/Monaten.

False Positives (False Alarm) Test - Ergebnis

Um die Qualität der Dateierkennungsfähigkeiten (Fähigkeit, gute Dateien von bösartigen Dateien zu unterscheiden) von Antivirenprodukten besser beurteilen zu können, bieten wir einen Fehlalarmtest an. Falsche Alarme können manchmal genauso viel Ärger verursachen wie eine echte Infektion. Bitte berücksichtigen Sie die Fehlalarmrate, wenn Sie die Erkennungsraten betrachten, da ein Produkt, das zu Fehlalarmen neigt, leichter höhere Erkennungsraten erreichen kann. In diesem Test wird unser gesamtes Clean-Set gescannt und ein repräsentativer Teil des Clean-Sets wird ausgeführt.

1.ESET, Microsoft0keine/sehr wenige FPs
2.Panda1
3.Adaware, Avira, Bitdefender, eScan2 wenige FPs
4.BullGuard, Seqrite, Tencent, VIPRE3
5.Emsisoft, Fortinet, Kaspersky4
6.F-Secure6
7.McAfee9
8.Avast, AVG20 viele FPs
9.Trend Micro29
10.Symantec96 sehr viele FPs
11.CrowdStrike125 auffallend viele FPs

Einzelheiten zu den entdeckten Fehlalarmen (einschließlich ihrer angenommenen Häufigkeit) befinden sich im False Alarm Test März 2017

Ein Produkt, das einen hohen Prozentsatz bösartiger Dateien erkennt, aber unter Fehlalarmen leidet, ist nicht unbedingt besser als ein Produkt, das weniger bösartige Dateien erkennt, aber weniger Fehlalarme erzeugt.

In diesem Malware Protection Test erreichte Award Level

AV-Comparatives vergibt Ranglistenauszeichnungen, die sowohl auf der Anzahl der Fehlalarme als auch auf der Schutzrate basieren. Da dieser Bericht auch die rohen Erkennungsraten und nicht nur die Auszeichnungen enthält, können sich erfahrene Benutzer, die sich weniger Sorgen über Fehlalarme machen, natürlich auch auf die Schutzrate allein verlassen. Einzelheiten über die Vergabe der Auszeichnungen finden Sie auf Seite 10 dieses Berichts.

* Diese Produkte wurden aufgrund der Fehlalarme schlechter bewertet.

Copyright und Haftungsausschluss

Diese Veröffentlichung ist Copyright © 2017 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.

Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.

AV-Comparatives
(April 2017)