Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.
Bitte beachten Sie, dass Sie sich durch die weitere Nutzung dieser Website mit den Bedingungen unserer Politik zum Schutz der Privatsphäre und des Datenschutzes .
Einige unserer Partnerdienste befinden sich in den USA. Nach Rechtsprechung des Europäischen Gerichtshofs existiert derzeit in den USA kein angemessener Datenschutz. Es besteht das Risiko, dass Ihre Daten durch US-Behörden kontrolliert und überwacht werden. Dagegen können Sie keine wirksamen Rechtsmittel vorbringen.
Akzeptieren

False Alarm Test März 2015

Datum März 2015
Sprache English
Letzte Revision 30. April 2015

Anhang zum Antiviren-Vergleich März 2015


Datum der Veröffentlichung 2015-05-01
Datum der Überarbeitung 2015-04-30
Prüfzeitraum März 2015
Online mit Cloud-Konnektivität checkbox-checked
Update erlaubt checkbox-checked
False-Alarm Test inklusive checkbox-unchecked
Plattform/OS Microsoft Windows

Einführung

Dieser Bericht ist als Ergänzung im File Detection Test März 2015 zu finden und bietet eine Auflistung von Details zu den entdeckten Fehlalarmen.

Bei AV-Tests ist es wichtig, nicht nur die Erkennungsfähigkeit, sondern auch die Zuverlässigkeit zu messen. Ein Aspekt der Zuverlässigkeit ist die Fähigkeit, saubere Dateien als solche zu erkennen und keine Fehlalarme (False Positives) zu erzeugen. Kein Produkt ist vor False Positives (FPs) gefeit, aber einige produzieren mehr als andere, und unser Ziel ist es, herauszufinden, welche Programme in dieser Hinsicht am besten abschneiden. Es gibt keine vollständige Sammlung aller legitimen Dateien, die es gibt, und daher kann kein "ultimativer" Test von FPs durchgeführt werden. Was jedoch möglich und sinnvoll ist, ist die Erstellung und Verwendung eines Satzes von sauberen Dateien, die unabhängig voneinander gesammelt werden. Wenn mit einem solchen Satz ein Produkt z. B. 30 FPs hat und ein anderes nur 5, ist es wahrscheinlich, dass das erste Produkt anfälliger für FPs ist als das andere. Das bedeutet nicht, dass das Produkt mit 5 FPs insgesamt nicht mehr als 5 FPs hat, aber es ist die relative Zahl, die wichtig ist.

Geprüfte Produkte

Testverfahren

Um den Benutzern mehr Informationen über die Fehlalarme zu geben, versuchen wir, die Prävalenz der Fehlalarme zu bewerten. Dateien, die digital signiert wurden, werden als wichtiger eingestuft. Daher wird eine Datei mit z.B. Prävalenz "Stufe 1" und einer gültigen digitalen Signatur auf die nächste Stufe (z.B. Prävalenz "Stufe 2") hochgestuft. Dateien, die laut mehreren Telemetriequellen eine Prävalenz von Null aufwiesen, wurden den Anbietern zur Verfügung gestellt, um sie zu korrigieren, wurden aber auch aus dem Satz entfernt und wurden nicht als Fehlalarme gezählt.

Die Prävalenz wird in fünf Kategorien angegeben und mit den folgenden Farben gekennzeichnet: fp_prevalence

LevelGeschätzte Anzahl der betroffenen UserKommentare
1fp_prevalence_1Wahrscheinlich weniger als Hundert UserEinzelfälle, alte oder selten genutzte Dateien, sehr geringe Prävalenz
2fp_prevalence_2Wahrscheinlich mehrere Hundert User


Die initiale Verbreitung solcher Dateien war wahrscheinlich viel höher, aber die derzeitige Nutzung auf aktuellen Systemen ist geringer (trotz ihres Vorhandenseins), weshalb auch bekannte Software nur noch eine Verbreitung von einigen Hundert oder Tausend Nutzern haben bzw. betreffen.
3fp_prevalence_3Wahrscheinlich mehrere Tausend User
4fp_prevalence_4Wahrscheinlich mehrere Zehntausend (oder mehr) User
5fp_prevalence_5Wahrscheinlich mehrere Hunderttausend oder Millionen UserSolche Fälle werden bei einem False-Alarm Test, der zu einem bestimmten Zeitpunkt durchgeführt wird, wahrscheinlich sehr viel seltener auftreten, da solche Dateien in der Regel entweder auf einer Whitelist stehen oder sehr schnell bemerkt und behoben werden würden.

Die meisten Fehlalarme werden wahrscheinlich in die ersten beiden Stufen fallen. Unserer Meinung nach sollten Antivirenprodukte keine Fehlalarme bei allen Arten von sauberen Dateien auslösen, unabhängig davon, wie viele Benutzer derzeit davon betroffen sind. Auch wenn einige AV-Anbieter das Risiko von Fehlalarmen herunterspielen und das Risiko von Malware hochspielen, werden wir Produkte nicht auf der Grundlage der angeblichen Prävalenz von Fehlalarmen bewerten. Wir lassen bereits eine bestimmte Anzahl von Fehlalarmen (derzeit 10) innerhalb unseres sauberen Satzes zu, bevor wir anfangen, Punkte abzuziehen. Unserer Meinung nach ist es bei Produkten, die eine höhere Anzahl von Fehlalarmen produzieren, auch wahrscheinlicher, dass sie Fehlalarme bei häufigeren Dateien (oder in anderen Sätzen von sauberen Dateien) produzieren. Die Prävalenzdaten, die wir für saubere Dateien angeben, dienen nur zu Informationszwecken. Die angegebene Prävalenz kann innerhalb des Berichts abweichen, je nachdem, bei welcher Datei/Version der Fehlalarm auftrat und/oder wie viele Dateien derselben Art betroffen waren.

Testfälle

Alle aufgeführten Fehlalarme traten zum Zeitpunkt der Prüfung auf. Falsche Alarme, die durch unverschlüsselte Datenblöcke in Antiviren-Dateien verursacht wurden, wurden nicht gezählt. Wenn ein Produkt mehrere Fehlalarme hatte, die zu derselben Software gehören, wird es hier nur als ein Fehlalarm gezählt. Cracks, Keygens usw. oder andere höchst fragwürdige Tools, einschließlich FPs, die in erster Linie von Anbietern (die mehrere Tausend sein können) oder anderen nicht unabhängigen Quellen verbreitet werden, werden hier nicht als Fehlalarme gezählt.

Test-Ergebnisse

1.ESET, Trend Micro1sehr wenige FPs
2.Panda3
3.Fortinet6 wenige FPs
4.Sophos, Tencent8
5.Bitdefender, Kaspersky9
6.McAfee10
7.AVG14
8.Emsisoft16 viele FPs
9.BullGuard, eScan, F-Secure, Lavasoft19
10.Quick Heal28
11.Avira44
12.ThreatTrack50
13.Avast77
14.Baidu94 sehr viele FPs

Copyright und Haftungsausschluss

Diese Veröffentlichung ist Copyright © 2015 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.

Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.

AV-Comparatives
(Mai 2015)