AVC-News

Hier finden Sie Links zu allen unseren Testberichten und Bewertungen.

Archiv der AV-C Tests/Reviews 2004-2014

Nachfolgend finden Sie das Archiv der AV-C Tests/Reviews 2004-2014 als PDF-Berichte. Für Tests und Bewertungen des aktuellen Jahres besuchen Sie bitte www.av-comparatives.org

Real-World Protection Tests
2014b, 2014a, 2013b, 2013a, 2012b, 2012a, 2011b, 2011a, 2010, 2009

File Detection Tests
2014b, 2014a, 2013b, 2013a, 2012b, 2012a, 2011b, 2011a, 2010b, 2010a, 2009b, 2009a, 2008b, 2008a, 2007b, 2007a, 2006b, 2006a, 2005b, 2005a, 2004b, 2004a

Verhaltenstests
2014, 2013, 2012

False Alarm Tests
2014b, 2014a, 2013b, 2013a, 2012b, 2012a, 2011b, 2011a, 2010b, 2010a, 2009

Performance Tests
2014b, 2014a, 2013b, 2013a, 2012b, 2012a, 2011b, 2011a, 2010b, 2010a, 2009, 2008

Malware Removal Tests
2014, 2013, 2012, 2011, 2009

Anti-Phishing Tests
2013, 2012, 2011

Mac-Sicherheitsüberprüfungen / Tests
2014, 2013, 2012

Mobile Sicherheit - Bewertungen / Tests
2014, 2013, 2012, 2011, 2010

Business Security Bewertungen
2014, 2013, 2012, 2011, 2010, 2009

Firewall Bewertungen / Tests
2014

Parental Control Bewertungen / Tests
2014

Summary Reports
2014, 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006

Erhebungen
2014, 2013, 2012, 2011

Heuristische Tests
2011b, 2011a, 2010b, 2010a, 2009b, 2009a, 2008b, 2008a, 2007b, 2007a, 2006b, 2006a, 2005b, 2005a, 2004b, 2004a

PUA-Tests
2010, 2009, 2006

Microsoft-prevalence-based analysis of the File Detection Tests

Diese auf der Microsoft-Prävalenzanalyse basierenden Berichte sind eine Ergänzung zu den bereits veröffentlichten Hauptberichten von AV-Comparatives vom September 2013 und März 2014 Datei-Erkennungstests. Es wurden keine zusätzlichen Tests durchgeführt. Vielmehr wurden die vorhandenen Testergebnisse aus einer anderen Perspektive neu analysiert, um zu prüfen, welche Auswirkungen die fehlenden Proben laut Telemetriedaten von Microsoft auf die Kunden haben könnten.

ISO-Zertifizierung

AV-Comparatives ist jetzt eine ISO-zertifizierte Prüfstelle. Wir haben von den Auditoren des TÜV Austria die Zulassung und ISO-Zertifizierung für unsere "Unabhängigen Tests von Antivirensoftware" erhalten.

Data transmission in Internet security products

Wir haben eine Studie über die Datenübertragung in Internet-Sicherheitsprodukten veröffentlicht. Viele Internetnutzer sind besorgt darüber, wer Zugang zu ihren persönlichen Daten hat und was damit gemacht wird. Nach den Enthüllungen von Edward Snowden über das Ausmaß des Abhörens durch die US-amerikanische NSA sind die Nutzer zunehmend für Fragen des Datenschutzes sensibilisiert. Computersicherheitssoftware hat berechtigte Gründe, ihren Herstellern einige Informationen über das System, auf dem sie läuft, zu übermitteln; insbesondere Details über auf dem Rechner gefundene Malware müssen an den Hersteller übermittelt werden, um den Benutzer wirksam zu schützen. Das bedeutet jedoch nicht, dass ein Programm einen Freibrief haben sollte, alle auf einem Computer gefundenen persönlichen Informationen an den Hersteller zu übermitteln (außer mit dem ausdrücklichen Wissen und Einverständnis des Systembesitzers). Dieser Bericht gibt einige Einblicke in die Datenübermittlung durch gängige Sicherheitsprogramme.

Natürlich müssen die Hersteller von Antivirenprogrammen die Gesetze der Länder einhalten, in denen sie ansässig sind. Im Falle einer gerichtlichen Anordnung, die den Hersteller verpflichtet, Informationen über einen Kunden zu liefern, hat das Unternehmen keine andere Wahl, als dies zu tun. Dies sollte jedoch der einzige Grund für die Weitergabe von Nutzerdaten an einen Dritten sein. Einige Unternehmen geben nicht an, dass sie Kundeninformationen nur unter solchen Umständen weitergeben.

Dieser Bericht wurde ursprünglich von PCgo und PC Magazin Deutschland angefordert und in Auftrag gegeben.

http://www.av-comparatives.org/wp-content/uploads/2014/04/avc_datasending_2014_en.pdf

Gebührenstruktur

Wie bereits im letzten Jahr mehrfach öffentlich angekündigt, bietet AV-Comparatives seit 2008 seine Dienste gegen eine Gebühr an. Die Gebühr bezieht sich NICHT auf die Tests selbst, sondern auf die verschiedenen Dienstleistungen, die wir anbieten (Fehlerberichte, Verwendung unseres Materials/Logos für Nachdrucke und Marketingmaterial, Erhalt von Musterlisten, Erhalt von Fehlalarmen nach den öffentlichen Tests, interne Dienstleistungen, usw.). Anbieter sind nicht verpflichtet, für das FULL-Service-Paket zu zahlen, und wenn ein Anbieter es z.B. vorzieht, nicht alle Dienstleistungen zu erhalten, ist die Gebühr niedriger. Alle großen Tester werden für die von ihnen erbrachten Leistungen bezahlt, das ist eine gängige Praxis. Natürlich hat das Honorar keinerlei Einfluss auf die Ergebnisse und dient dazu, unsere Kosten und den Zeitaufwand zu decken.
Für Nutzer und Zeitschriften sind die öffentlichen Ergebnisse kostenlos, solange die Quelle angegeben wird. Wenn wir Zeit haben und z.B. eine Zeitschrift möchte, dass wir eine zusätzliche Arbeit/einen zusätzlichen Test von z.B. Produkten durchführen, die noch nicht getestet wurden, kostet dies etwas Geld, das von der Zeitschrift getragen werden muss (nur für die Dienstleistung, die der Zeitschrift erbracht wird; der Verkäufer des getesteten Produkts erhält keine Dienstleistung).

AV-Comparatives am Leben erhalten

Für diejenigen, die diese Informationen nicht bereits auf unserer Website gelesen haben:
Ab 2008 wird AV-Comparatives - wie die meisten anderen Tester auch - seine Dienste nicht mehr kostenlos anbieten, da die Kosten für die Seite und die damit verbundene Arbeit zu hoch sind. Die Hersteller werden nicht für die großen Tests selbst bezahlen (und haben natürlich auch keinerlei Einfluss auf die Testergebnisse oder das Award-System) - die Teilnahmegebühr beinhaltet z.B. die Nutzung des erreichten Awards für Marketingzwecke und andere Dienstleistungen (wie z.B. das Erhalten von False Positives und entgangener Malware nach den Tests, Bug Reports, etc.) Die Anzahl der Teilnehmer wird auf ca. 18 Anbieter begrenzt sein.

Was kommt als Nächstes?

Hier ein Überblick über das, was als nächstes auf AV-Comparatives kommen wird:

- der retrospektive Test (der am 1. Dezember veröffentlicht wird) wird geringfügig geändert/verbessert werden. Einige Anbieter haben bereits seit etwa einem halben Jahr Änderungen an den Testmethoden vorgeschlagen, und da diese Methoden a) für uns einfacher zu handhaben sind als die bisherigen, b) auch von anderen Anbietern weitgehend akzeptiert werden und c) sich ohnehin nicht wesentlich ändern dürften, werden diese neuen "Methoden" in diesem kommenden retrospektiven Test verwendet. Die Änderungen usw. werden in dem Bericht beschrieben. Zumindest für diesen retrospektiven Test werden die Level-Ranges wahrscheinlich unverändert bleiben.

- Der zusammenfassende Bericht für 2007 wird im Dezember veröffentlicht. Er enthält eine kurze Zusammenfassung aller Tests und einige Anmerkungen zu den verschiedenen Produkten.

- Im Jahr 2008 werden wir wahrscheinlich damit beginnen, eine Art von Gebühren für die verschiedenen Dienstleistungen zu verlangen, die wir anbieten, und wir werden wahrscheinlich einige Anbieter aus den regelmäßigen Tests herausnehmen und stattdessen einige andere Anbieter einbeziehen, die bekannter sind und oft darum gebeten werden, einbezogen zu werden. Die Anzahl der getesteten Produkte wird wahrscheinlich auf 16-18 Produkte begrenzt sein.

- Behavioral-Testing gewinnt immer mehr an Bedeutung. Derzeit wird diskutiert, wie solche Tests am besten (herstellerunabhängig) durchgeführt werden können und wie Tester solche Tests durchführen können. Da solche Tests nicht trivial sind und viele Ressourcen erfordern, kann es eine Weile dauern, bis wir sie durchführen.

- Wenn es die Arbeitskraft und die Ressourcen erlauben, möchten wir von Zeit zu Zeit auch andere Tests durchführen, die zeigen, wie gut die Produkte vor bösartigen Handlungen in verschiedenen Szenarien schützen. Zunächst werden wir uns jedoch darauf konzentrieren, die Qualität und die Methoden der derzeitigen Tests beizubehalten und weiter zu verbessern.

Die "untote" WildList

AV-Test.org auf der VirusBulletin-Konferenz eine interessante Paper über den derzeitigen desolaten Zustand der WildList und machten Vorschläge, wie sie verbessert werden kann. Bereits auf dem AV-Testing-Workshop in Rekjavik 2007 haben die meisten technischen Mitarbeiter der AV-Anbieter zugelassen dass die WildList gut akzeptiert und beliebt ist, weil es einfach ist, Tests auf der Grundlage der WildList zu bestehen, und weil sie gut für das Marketing ist (100%-Erkennung*). Man kann sich also fragen, warum - wenn es einfach ist, den Test zu bestehen - einige Anbieter nicht alle Proben aus der WildList erkennen? Die Gründe dafür könnten entweder Fehler der Tester oder temporäre Bugs in der Software sein, aber häufiger und wahrscheinlicher ist es, weil a) Es sind mehr Variablen als nur die Erkennung aller Proben erforderlich, um zu bestehen (z. B. keine falsch positiven Ergebnisse bei VB100)b) manchmal sind auch sehr alte Bedrohungen, die vor 10 Jahren auf der WildList standen (z. B. Bootsektorviren), immer noch enthalten, und zwar wahrscheinlich auch deshalb, weil nicht alle Anbieter die WildCore-Sammlung erhalten und daher nicht unter den gleichen Bedingungen getestet werden. Wer will also die WildList am Leben erhalten? Natürlich (neben Marketing**-Leuten und Zertifizierungsstellen, die viel Geld für recht einfach durchzuführende [und für av-Anbieter kostenpflichtige] Tests erhalten) all jene Anbieter, die wissen, dass ihr Produkt in Tests mit größeren Testsätzen nicht gut abschneiden würde.

Lesen Sie weiter...