Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.
Bitte beachten Sie, dass Sie durch die weitere Nutzung dieser Website den Bedingungen unserer Privacy and Data Protection Policy zustimmen.
Akzeptieren

Retrospective / Proactive Test Mai 2010

Datum Februar 2010
Sprache Deutsch
Letzte Revision 5. Juni 2010

Heuristischer und verhaltensbasierter Schutz vor neuer/unbekannter Schadsoftware


Datum der Veröffentlichung 2010-06-06
Datum der Überarbeitung 2010-06-05
Prüfzeitraum Februar 2010
Anzahl der Testfälle 27271
Online mit Cloud-Konnektivität checkbox-unchecked
Update erlaubt checkbox-unchecked
False-Alarm Test inklusive checkbox-checked
Plattform/OS Microsoft Windows

Geprüfte Produkte

Testverfahren

Anti-Virus-Produkte behaupten oft, eine hohe proaktive Erkennungsleistung zu haben - weit höher als die in diesem Test erreichten Werte. Dies ist nicht nur eine Werbeaussage; es ist möglich, dass Produkte die angegebenen Prozentsätze erreichen, aber dies hängt von der Dauer des Testzeitraums, der Größe der Stichprobenmenge und den verwendeten Stichproben ab. Die Daten zeigen, wie gut die proaktiven Erkennungsfähigkeiten der Scanner bei der Erkennung neuer Bedrohungen waren. Die Benutzer sollten keine Angst haben, wenn Produkte in einem rückwirkenden Test niedrige Prozentsätze aufweisen. Wenn die Antiviren-Software immer auf dem neuesten Stand gehalten wird, kann sie mehr Proben erkennen. Um zu verstehen, wie die Erkennungsraten der Antiviren-Produkte mit aktualisierten Signaturen und Programmen aussehen, werfen Sie einen Blick auf unsere regelmäßigen On-Demand-Erkennungstests. Es wurde nur die On-Demand-Erkennungsfunktion getestet. Einige Produkte sind möglicherweise in der Lage, einige Samples zu erkennen, z. B. bei der Ausführung oder durch andere Überwachungstools, wie z. B. Behavior-Blocker, usw. Diese Arten von zusätzlichen Schutztechnologien werden von AV-Comparatives z. B. in dynamischen Tests berücksichtigt.

Dieser Prüfbericht ist der zweite Teil der Prüfung im Februar 2010. Der Bericht wird aufgrund des hohen Arbeitsaufwands, der vertieften Analyse und der Vorbereitung des retrospektiven Testsatzes Anfang Juni vorgelegt. Täglich tauchen viele neue Viren und andere Arten von Malware auf. Deshalb ist es wichtig, dass Anti-Virus-Produkte nicht nur so oft und so schnell wie möglich neue Updates bereitstellen, sondern auch in der Lage sind, solche Bedrohungen im Voraus (auch ohne sie auszuführen) mit generischen und/oder heuristischen Techniken zu erkennen. Auch wenn die meisten Antivirenprodukte heutzutage tägliche, stündliche oder Cloud-Updates anbieten, gibt es ohne heuristische/generische Methoden immer einen Zeitrahmen, in dem der Benutzer nicht zuverlässig geschützt ist.

Die Produkte verwendeten dieselben Updates und Signaturen, die sie auch in den 10. Februar, und es wurden die gleichen höchsten Erkennungseinstellungen wie im Februar verwendet. Dieser Test zeigt die proaktiven Erkennungsmöglichkeiten, die die Produkte zu diesem Zeitpunkt hatten. Wir haben neue Malware verwendet, die zwischen dem 11.. und 18. Februar 2010. Die folgenden 20 Produkte wurden getestet:

Testfälle

Wir haben versucht, in den Testsatz nur verbreitete reale Malware aufzunehmen, die vor dem 10. Februar 2010, indem wir die in der AV-Branche gesammelten und ausgetauschten Telemetrie-/Wolkendaten konsultierten. Die Einsichtnahme in diese Daten war für uns sehr interessant, denn sie zeigte, dass einige Anbieter bereits vor vielen Monaten oder sogar Jahren Malware entdeckt hatten, während dieselben Malware-Hashes in den Clouds anderer Anbieter erst kürzlich auftauchten.

Ranking-System

Die Auszeichnungen werden von den Testern vergeben, nachdem sie eine Reihe von statistischen Methoden, darunter auch hierarchisches Clustering, herangezogen haben. Wir haben unsere Entscheidungen nach dem folgenden Schema getroffen:

Proaktiver Schutz Tarife
Unter 50%
3
2
1
Keine - Wenige FPs
TESTED
STANDARD
ADVANCED
ADVANCED+
Viele FPs
TESTED
TESTED
STANDARD
ADVANCED
Sehr viele FPs
TESTED
TESTED
TESTED
STANDARD
Verrückt viele FPs
TESTED
TESTED
TESTED
TESTED

Test-Ergebnisse

Die Ergebnisse zeigen die proaktiven (generischen/heuristischen) On-Demand-Erkennungsfähigkeiten der Scan-Engines gegenüber neuer Malware. Dieser Test wird bei Bedarf durchgeführt, es handelt sich NICHT um einen Ausführungs-/Verhaltenstest. Die Prozentwerte sind auf die nächste ganze Zahl gerundet. Nehmen Sie die Ergebnisse nicht als absolute Bewertung der Qualität - sie geben nur einen Eindruck davon, wer in diesem speziellen Test mehr und wer weniger erkannt hat. Um zu erfahren, wie diese Antivirenprodukte mit aktualisierten Signaturen abschneiden, sehen Sie sich bitte unsere On-Demand-Tests vom Februar und August an. Die Leser sollten sich die Ergebnisse ansehen und sich eine Meinung bilden, die ihren Bedürfnissen entspricht. Alle getesteten Produkte sind bereits aus einer Gruppe sehr guter Scanner ausgewählt worden, und wenn sie richtig eingesetzt und auf dem neuesten Stand gehalten werden, können sich die Benutzer mit jedem von ihnen sicher fühlen.

False Positives (False Alarm) Test - Ergebnis

Um die Qualität der Erkennungsfunktionen besser beurteilen zu können, muss auch die Fehlalarmrate berücksichtigt werden. Ein Fehlalarm (oder falsches Positiv) liegt vor, wenn ein Antiviren-Produkt eine harmlose Datei als infiziert kennzeichnet, obwohl sie es nicht ist. Falsche Alarme können manchmal genauso viel Ärger verursachen wie eine echte Infektion.

Die Ergebnisse des Fehlalarmtests waren bereits im Februar-Testbericht enthalten. Einzelheiten finden Sie in diesem Bericht, False Alarm Test Februar 2010.

1.eScan1sehr wenige FPs (0-3)
2.F-Secure2
3.Bitdefender, ESET, Microsoft3
4.Sophos4 wenige FPs (4-15)
5.G Data, Kaspersky5
6.PC-Werkzeuge8
7.Trustport9
8.AVG10
9.Avast, Avira, Symantec11
10.Trend Micro38 viele FPs (über 15)
11.Panda47
12.McAfee61
13.Norman64
14.Kingsoft67
15.K7193

Zusammenfassung - Ergebnis

Die Ergebnisse zeigen die proaktiven Schutzfunktionen der verschiedenen Produkte gegen neue Malware. Die Prozentsätze sind auf die nächste ganze Zahl gerundet.

Unten sehen Sie die Ergebnisse des proaktiven Schutzes über unseren Satz neuer und verbreiteter Malware-Dateien/Familien, die im Feld auftauchten (27.271 Malware-Samples):

  Blockiert Kompromittiert Proaktiv / Schutzrate False-Positives (FPs) Cluster
TrustPort 17181 10090 63% wenige 1
G Data 16635 10636 61% wenige 1
Microsoft 16090 11181 59% sehr wenige 1
Kaspersky 16090 11181 59% wenige 1
AVIRA 14454 12817 53% wenige 1
ESET NOD32, F-Secure 14181 13090 52% sehr wenige 1
BitDefender, eScan 13636 13636 50% sehr wenige 1
 
Panda 17181 10090 63% viele 2
K7 13636 13636 50% viele 2
Symantec 11727 15544 43% wenige 2
AVG 9272 17999 34% wenige 2
Sophos 8727 18544 32% wenige 2
Avast 7909 19362 29% wenige 2
 
McAfee 10363 16908 38% viele 3
Norman 7363 19908 27% viele 3
Trend Micro
7090 20181 26% viele 3
PC-Werkzeuge 4636 22635 17% wenige 3
 
Kingsoft 3000 24271 11% viele

In diesem Heuristik-/Verhaltenstest erreichte Punktzahlen

Die folgenden Auszeichnungen beziehen sich auf die Ergebnisse des proaktiven/verhaltensbasierten Tests, wobei nicht nur die Schutzraten vor neuer Malware, sondern auch die Fehlalarmraten berücksichtigt wurden:

* Diese Produkte wurden aufgrund der Fehlalarme schlechter bewertet.

Anmerkungen

Um häufige Fragen zu vermeiden, finden Sie hier einige Hinweise zu den verwendeten Einstellungen (Scannen aller Dateien usw. ist immer aktiviert) einiger Produkte, während die höchsten Einstellungen auf Wunsch des Herstellers nicht verwendet wurden:

  • F-Secure, Sophos: gebeten, auf der Grundlage ihrer Standardeinstellungen getestet und ausgezeichnet zu werden (d. h. ohne Verwendung ihrer erweiterten Heuristik-/Verdachtserkennungseinstellungen).
  • AVG, AVIRA: gebeten, die Informationswarnungen der Packer nicht zu aktivieren/als Erkennungen zu betrachten.

Copyright und Haftungsausschluss

Diese Veröffentlichung ist Copyright © 2010 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.

Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.

AV-Comparatives
(Juni 2010)