Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.
Bitte beachten Sie, dass Sie sich durch die weitere Nutzung dieser Website mit den Bedingungen unserer Politik zum Schutz der Privatsphäre und des Datenschutzes .
Einige unserer Partnerdienste befinden sich in den USA. Nach Rechtsprechung des Europäischen Gerichtshofs existiert derzeit in den USA kein angemessener Datenschutz. Es besteht das Risiko, dass Ihre Daten durch US-Behörden kontrolliert und überwacht werden. Dagegen können Sie keine wirksamen Rechtsmittel vorbringen.
Akzeptieren

Real-World Protection Test August-November 2011

Datum November 2011
Sprache Deutsch
Letzte Revision 16. Dezember 2011

Datum der Veröffentlichung 2011-12-17
Datum der Überarbeitung 2011-12-16
Prüfzeitraum August - November 2011
Anzahl der Testfälle 1898
Online mit Cloud-Konnektivität checkbox-checked
Update erlaubt checkbox-checked
False-Alarm Test inklusive checkbox-checked
Plattform/OS Microsoft Windows
Methodik Klicken Sie hier

Einführung

Die Bedrohung durch bösartige Software wächst von Tag zu Tag. Nicht nur die Zahl der Schadprogramme nimmt zu, auch die Art der Bedrohungen selbst ändert sich rapide. Die Art und Weise, wie Schadcode auf Computer gelangt, ändert sich von einfachen dateibasierten Methoden hin zur Verbreitung über das Internet. Malware infiziert PCs immer häufiger, indem Benutzer z. B. dazu verleitet werden, infizierte Webseiten zu besuchen, schädliche Software zu installieren oder E-Mails mit bösartigen Anhängen zu öffnen.

Der Schutzumfang von Antivirenprogrammen wird durch die Einbeziehung von z.B. URL-Blockern, Inhaltsfiltern, Reputationssystemen und benutzerfreundlichen Verhaltensblockern erweitert. Wenn diese Funktionen perfekt auf die signaturbasierte und heuristische Erkennung abgestimmt sind, erhöht sich der Schutz vor Bedrohungen.

Bei diesem Test tragen alle Funktionen des Produkts zum Schutz bei, nicht nur ein Teil (wie Signaturen/heuristisches Dateiscanning). Der Schutz sollte also höher sein, als wenn nur Teile des Produkts getestet werden. Wir empfehlen, dass alle Teile eines Produkts einen hohen Erkennungsgrad aufweisen sollten, nicht nur einzelne Komponenten (z. B. schützt die URL-Sperre nur beim Surfen im Internet, aber nicht vor Malware, die auf anderem Wege eingeschleust wurde oder bereits auf dem System vorhanden ist).

Trotz dieser neuen Technologien ist es nach wie vor sehr wichtig, dass die signaturbasierten und heuristischen Erkennungsfähigkeiten von Antivirenprogrammen weiterhin getestet werden. Selbst mit allen verfügbaren Schutzfunktionen bedeutet die zunehmende Häufigkeit von Zero-Day-Angriffen, dass einige Computer unweigerlich infiziert werden. Da Signaturen aktualisiert werden können, bieten sie die Möglichkeit, Malware zu erkennen und zu entfernen, die ursprünglich von der Sicherheitssoftware übersehen wurde. Die neueren, "nicht-konventionellen" Schutztechnologien bieten oft keine Möglichkeit, vorhandene Datenspeicher auf bereits infizierte Dateien zu überprüfen, die sich auf den Dateiservern vieler Unternehmen befinden. Diese neuen Sicherheitsebenen sollten als Ergänzung zu guten Erkennungsraten verstanden werden, nicht als Ersatz.

Der Whole-Product Dynamic Protection Test ist ein gemeinsames Projekt von AV-Comparatives und der Fakultät für Informatik und Qualitätstechnik der Universität Innsbruck. Es wird teilweise von der österreichischen Regierung finanziert.

Für diesen Test verwenden wir normalerweise die Internet Security Suite, da alle Schutzfunktionen, die das System vor Angriffen schützen, verwendet werden können. Ein Anbieter kann jedoch stattdessen auch sein einfaches Antivirenprodukt angeben, wenn er dies vorzieht. Die Hauptversionen der in jedem monatlichen Testlauf getesteten Produkte sind unten aufgeführt:

Geprüfte Produkte

Testverfahren

Das Testen von Dutzenden von Antivirenprodukten mit jeweils Hunderten von URLs pro Tag ist eine Menge Arbeit, die nicht von Hand erledigt werden kann (da Tausende von Websites parallel besucht werden müssten), so dass eine Art von Automatisierung erforderlich ist.

Vorbereitung auf Testreihen

Jedes zu prüfende Sicherheitsprogramm wird auf einem eigenen Testrechner installiert. Alle Computer sind mit dem Internet verbunden (Einzelheiten siehe unten). Das System wird eingefroren, wobei das Betriebssystem und das Sicherheitsprogramm installiert sind.

Labor-Setup

Der gesamte Test wird auf echten Workstations durchgeführt. Wir verwenden keine Art von Virtualisierung. Jede Workstation hat eine eigene Internetverbindung mit einer eigenen externen IP. Wir haben spezielle Vereinbarungen mit verschiedenen Providern (Failover Clustering und keine Verkehrsblockierung), um eine stabile Internetverbindung zu gewährleisten. Die Tests werden mit einer Live-Internetverbindung durchgeführt. Wir haben die notwendigen Vorkehrungen getroffen (mit speziell konfigurierten Firewalls usw.), um andere Computer nicht zu schädigen (d. h. keine Ausbrüche zu verursachen).

Hardware und Software

Für diesen Test haben wir identische Workstations, ein IBM Bladecenter und Network Attached Storage verwendet.

  Anbieter Typ CPU RAM Hartes Dsik
Arbeitsplatz Fujitsu e3521 E85+ Intel Core 2 Duo 4 GB 80 GB
BladeCenter IBM E Fahrgestell 0
Klingen IBM LS20 AMD Dual Opteron 8 GB 76 GB
NAS QNAP TS-859U-RP Atom Dual Core 1 GB 16 TB Raid 6

Die Tests wurden unter Windows XP SP3 ohne weitere Updates durchgeführt. Einige weitere installierte anfällige Software umfasst:

Anbieter Produkt Version   Anbieter Produkt Version
Adobe Flash Player ActiveX 16.0 Microsoft Büro Zuhause 2013
Adobe Flash Player Plug-In 16.0 Microsoft .NET-Rahmenwerk 4.5.2
Adobe Acrobat Reader 11.0 Mozilla Firefox 35.0.1
Apfel QuickTime 7.76 Oracle Java 1.8.0.31
Microsoft Internet Explorer 11.0 VideoLAN VLC-Medienspieler 2.1.5

Settings

Wir verwenden jede Sicherheitssuite mit ihren Standardeinstellungen (Out-of-the-Box). Wenn Benutzerinteraktionen erforderlich sind, wird die Standardoption berücksichtigt. Unser dynamischer Schutztest für das gesamte Produkt zielt darauf ab, reale Bedingungen zu simulieren, wie sie von den Nutzern tagtäglich erlebt werden. Wenn es keine vordefinierte Aktion gibt, werden wir daher immer dieselbe Aktion verwenden, wenn wir die Warnung/Meldung als sehr klar und eindeutig ansehen. Wenn die Meldung dem Benutzer die Entscheidung überlässt, kennzeichnen wir sie als solche, und wenn die Meldung sehr vage oder irreführend ist oder sogar vorschlägt, z. B. der bösartigen Datei/URL/dem bösartigen Verhalten zu vertrauen, betrachten wir sie als Fehlschlag, so wie es der normale Benutzer tun würde. Unter "Schutz" verstehen wir, dass das System nicht kompromittiert ist. Das bedeutet, dass die Malware nicht ausgeführt wird (oder entfernt/beendet wurde) und dass es keine signifikanten/schädlichen Systemveränderungen gibt. Eine Warnung der Outbound-Firewall über einen laufenden Malware-Prozess, in der gefragt wird, ob der Datenverkehr vom Arbeitsplatz des Benutzers zum Internet blockiert werden soll oder nicht, ist zu wenig, zu spät und wird von uns nicht als Schutz angesehen.

Vorbereitung auf jeden Prüfungstag

Jeden Morgen werden alle verfügbaren Sicherheitssoftware-Updates heruntergeladen und installiert, und es wird ein neues Basis-Image für diesen Tag erstellt. Dadurch wird sichergestellt, dass selbst für den Fall, dass das Sicherheitsprodukt im Laufe des Tages keine größere Aktualisierung durchführen kann (die Produkte werden vor jedem Testfall aktualisiert) oder nicht erreichbar ist, zumindest die Aktualisierungen des Vormittags verwendet werden, so wie es dem Benutzer in der realen Welt ergehen würde.

Prüfzyklus für jede schädliche URL

Vor dem Aufrufen jeder neuen bösartigen URL/jedes neuen Testfalls aktualisieren wir die Programme/Signaturen. Neue Hauptproduktversionen (d. h. die erste Ziffer der Build-Nummer ist anders) werden einmal zu Beginn des Monats installiert, weshalb wir in jedem Monatsbericht nur die Hauptversionsnummer des Produkts angeben. Unsere Testsoftware beginnt mit der Überwachung des PCs, so dass alle von der Malware vorgenommenen Änderungen aufgezeichnet werden. Darüber hinaus überprüfen die Erkennungsalgorithmen, ob das Antivirenprogramm die Malware erkennt. Nach jedem Testfall wird der Rechner in seinen sauberen Zustand zurückversetzt.

Protection

Sicherheitsprodukte sollen den PC des Benutzers schützen. Es ist nicht sehr wichtig, in welchem Stadium der Schutz stattfindet. Dies kann entweder während des Besuchs der Website (z. B. Schutz durch URL-Blocker), während ein Exploit versucht, ausgeführt zu werden, während die Datei heruntergeladen/erstellt wird oder während die Malware ausgeführt wird (entweder durch den Exploit oder durch den Benutzer). Nachdem die Malware ausgeführt wurde (falls sie nicht vorher blockiert wurde), warten wir einige Minuten auf bösartige Aktionen und geben z. B. Verhaltensblockern Zeit, zu reagieren und die von der Malware ausgeführten Aktionen zu beheben. Wenn die Malware nicht erkannt wird und das System tatsächlich infiziert/kompromittiert ist, geht der Prozess zu "Malware nicht erkannt" über. Wenn eine Benutzerinteraktion erforderlich ist und es am Benutzer liegt, zu entscheiden, ob etwas bösartig ist, und im Falle der schlechtesten Benutzerentscheidung das System kompromittiert wird, stufen wir dies als "benutzerabhängig" ein. Aus diesem Grund können die gelben Balken im Ergebnisdiagramm entweder als geschützt oder nicht geschützt interpretiert werden (es liegt in der Hand des Benutzers).

Aufgrund des dynamischen Charakters des Tests, d. h. der Nachahmung realer Bedingungen, und aufgrund der Funktionsweise verschiedener Technologien (wie Cloud-Scanner, Reputationsdienste usw.) können solche Tests nicht in der Weise wiederholt oder repliziert werden, wie dies z. B. bei statischen Erkennungsraten-Tests möglich ist. Dennoch versuchen wir, so viel wie möglich zu protokollieren, um unsere Erkenntnisse und Ergebnisse zu belegen. Die Anbieter sind aufgefordert, nützliche Protokolle in ihren Produkten bereitzustellen, die im Falle von Streitigkeiten die gewünschten zusätzlichen Daten liefern können. Die Anbieter hatten nach jedem Testmonat die Möglichkeit, unsere Schlussfolgerungen zu den kompromittierten Fällen anzufechten, so dass wir erneut prüfen konnten, ob es vielleicht Probleme bei der Automatisierung oder bei unserer Analyse der Ergebnisse gab.

Bei Cloud-Produkten werden nur die Ergebnisse berücksichtigt, die die Produkte zum Zeitpunkt der Prüfung hatten; manchmal sind die von den Sicherheitsanbietern bereitgestellten Cloud-Dienste aufgrund von Fehlern oder Wartungsausfällen der Anbieter nicht verfügbar, aber diese Cloud-Ausfälle werden den Nutzern von den Anbietern oft nicht offengelegt/mitgeteilt. Dies ist auch ein Grund, warum Produkte, die sich zu sehr auf Cloud-Dienste verlassen (und keine lokalen Heuristiken usw. verwenden), riskant sein können, da in solchen Fällen die von den Produkten gebotene Sicherheit erheblich abnehmen kann. Cloud-Signaturen/Reputation sollten in die Produkte implementiert werden, um die anderen lokalen/Offline-Schutzfunktionen zu ergänzen und sie nicht vollständig zu ersetzen, da z. B. Offline-Cloud-Dienste bedeuten würden, dass die PCs höheren Risiken ausgesetzt wären.

Testfälle

Wir konzentrieren uns nicht auf Zero-Day-Exploits/Malware (obwohl es möglich ist, dass diese auch im URL-Pool vorhanden sind), sondern hauptsächlich auf aktuelle, sichtbare und relevante bösartige Websites/Malware, die derzeit im Umlauf sind und für den normalen Benutzer problematisch sind. Wir versuchen, nur etwa 30-50% URLs aufzunehmen, die direkt auf Malware verweisen (z. B. wenn der Benutzer durch Social-Engineering dazu verleitet wird, Links in Spam-Mails oder auf Websites zu folgen, oder wenn der Benutzer dazu verleitet wird, einen Trojaner oder andere Schurkensoftware zu installieren). Der Rest/größere Teil sind Exploits/Drive-by-Downloads - diese scheinen in der Regel von fast allen großen Sicherheitsprodukten gut abgedeckt zu sein. Laut einer von Microsoft veröffentlichten Studie über Verbreitungsmethoden (Microsoft Security Intelligence Report, Band 11, Seite 13) scheinen Exploits heutzutage nur noch eine Minderheit darzustellen und Social-Engineering/Benutzerinteraktion ist die bei weitem am weitesten verbreitete Verbreitungsmethode. Möglicherweise werden wir die Verteilung in zukünftigen Tests anpassen.

Bei dieser Art von Tests ist es sehr wichtig, genügend Testfälle zu verwenden. Wenn bei Vergleichstests eine unzureichende Anzahl von Stichproben verwendet wird, deuten Unterschiede in den Ergebnissen möglicherweise nicht auf tatsächliche Unterschiede zwischen den getesteten Produkten hin. In der Tat betrachten wir selbst in unseren Tests (mit Tausenden von Testfällen) Produkte in der gleichen Schutzgruppe als mehr oder weniger gleich gut, solange sie nicht fälschlicherweise mehr saubere Dateien/Seiten blockieren als der Branchendurchschnitt.

Ranking-System

Ranking-System
Schutzrate
Cluster 4
Schutzrate
Cluster 3
Schutzrate
Cluster 2
Schutzrate
Cluster 1
< ∅ FPs
Tested
Standard
Advanced
Advanced+
> ∅ FPs
Tested
Tested
Standard
Advanced

Test-Ergebnisse

Nachstehend finden Sie eine Übersicht über die einzelnen Testmonate:

August 2011 - 191 Testfälle

September 2011 - 608 Testfälle

Oktober 2011 - 503 Testfälle

November 2011 - 596 Testfälle

Wir geben in diesem Bericht absichtlich keine exakten Zahlen für die einzelnen Monate an, um zu vermeiden, dass die geringfügigen Unterschiede einiger weniger Fälle dazu missbraucht werden, zu behaupten, dass ein Produkt in einem bestimmten Monat und bei einer bestimmten Testsatzgröße besser ist als das andere. Wir geben die Gesamtzahlen in den Gesamtberichten an, wo die Größe der Testgruppe größer ist und größere Unterschiede beobachtet werden können.

False Positives (False Alarm) Test - Ergebnis

Der Fehlalarmtest im dynamischen Gesamtprodukttest besteht aus zwei Teilen: fälschlicherweise blockierte Domänen (beim Browsen) und fälschlicherweise blockierte Dateien (beim Herunterladen/Installieren). Es ist notwendig, beide Szenarien zu testen, da das Testen nur eines der beiden oben genannten Fälle Produkte benachteiligen könnte, die sich hauptsächlich auf eine Art von Schutzmethode konzentrieren, entweder z. B. URL/Reputationsfilterung oder z. B. On-Access-/Verhaltens-/Reputations-basierten Dateischutz.

Falsch blockierte Domains (beim Browsen)

Wir verwendeten etwa zweitausend zufällig ausgewählte populäre Domains. Gesperrte, nicht bösartige Domänen/URLs wurden als falsch positive Ergebnisse (FPs) gezählt. Die fälschlicherweise blockierten Domänen wurden den jeweiligen Anbietern zur Überprüfung gemeldet und sollten nun nicht mehr blockiert werden.

Durch das Blockieren ganzer Domains riskieren die Sicherheitsprodukte nicht nur, dass ihren Warnungen nicht geglaubt wird, sondern auch, dass den Domaininhabern (neben der Schädigung des Rufs der Website) potenzieller finanzieller Schaden entsteht, einschließlich des Verlusts von z. B. Werbeeinnahmen. Aus diesem Grund empfehlen wir Anbietern dringend, ganze Domains nur dann zu blockieren, wenn der einzige Zweck der Domain darin besteht, bösartigen Code zu transportieren/zu verbreiten, und ansonsten nur die bösartigen Seiten zu blockieren (sofern sie tatsächlich bösartig sind). Produkte, die dazu neigen, URLs z. B. auf der Grundlage ihrer Reputation zu blockieren, können dafür anfälliger sein und auch bei Schutztests besser abschneiden, da sie möglicherweise viele unbeliebte/neue Websites blockieren.

Falsch blockierte Dateien (beim Herunterladen/Installieren)

Wir haben etwa einhundert verschiedene Anwendungen verwendet, die entweder als Top-Downloads oder als neue/empfohlene Downloads von etwa einem Dutzend verschiedener beliebter Download-Portale aufgeführt sind. Die Anwendungen wurden von den Websites heruntergeladen (wenn die ursprüngliche Entwicklerseite angegeben war, haben wir diese Quelle anstelle des Hosts des Download-Portals verwendet), auf der Festplatte gespeichert und installiert, um zu sehen, ob sie in irgendeiner Phase dieses Verfahrens blockiert werden. Zusätzlich haben wir einige Dateien aufgenommen, deren Status als Malware in den vergangenen Monaten des Dynamic Test umstritten war.

Die Aufgabe von Sicherheitsprodukten besteht darin, vor bösartigen Websites/Dateien zu schützen und nicht darin, den Zugang nur zu bekannten und beliebten Anwendungen und Websites zu zensieren oder zu beschränken. Wenn der Benutzer bewusst eine hohe Sicherheitseinstellung wählt, die davor warnt, dass sie einige legitime Websites oder Dateien blockieren kann, kann dies als akzeptabel angesehen werden. Wir halten dies jedoch nicht für akzeptabel, wenn es sich um eine Standardeinstellung handelt und der Benutzer nicht gewarnt wurde. Keines der Produkte blockierte extrem beliebte Anwendungen. Da der Test zu bestimmten Zeitpunkten durchgeführt wird und FPs auf sehr beliebter Software/Websites in der Regel innerhalb weniger Stunden bemerkt und behoben werden, wäre es überraschend, FPs auf sehr beliebten Anwendungen zu finden. Aus diesem Grund wären FP-Tests, die z. B. nur bei sehr beliebten Anwendungen durchgeführt werden oder die nur die 50 wichtigsten Dateien von auf einer Whitelist stehenden/überwachten Download-Portalen verwenden, eine Verschwendung von Zeit und Ressourcen. Den Nutzern ist es egal, ob sie mit Malware infiziert sind, die nur sie selbst betrifft, ebenso wie es ihnen egal ist, ob die Anzahl der FP nur sie selbst betrifft. Auch wenn es wünschenswert ist, dass nicht viele Nutzer von FPs betroffen sind, sollte es das Ziel sein, FPs zu vermeiden und sich vor bösartigen Dateien zu schützen, unabhängig davon, wie viele Nutzer betroffen sind oder angesprochen werden. Die Prävalenz von FPs auf der Grundlage von Benutzerdaten ist für interne Tests von AV-Anbietern von Interesse, aber für den normalen Benutzer ist es wichtig zu wissen, wie genau sein Produkt zwischen sauberen und bösartigen Dateien unterscheidet.

Die folgende Tabelle zeigt die Anzahl der fälschlicherweise blockierten Domains/Dateien:

  Falsch blockierte saubere Domänen/Dateien
(gesperrt / benutzerabhängig[1])
Falsch blockiertes Ergebnis
[niedriger ist besser]
AVG – / – (-)
Kaspersky – / 1 (1) 0.5
ESET, Panda 1 / – (1) 1
G Data 3 / – (3) 3
Symantec 2 / 2 (4) 3
Bitdefender, McAfee, Qihoo, Sophos 4 / – (4) 4
Avast 1 / 7 (8) 4.5
F-Secure 5 / 4 (9) 7
  Durchschnitt (12) Durchschnitt (12)
K7 15 / – (15) 15
AVIRA 17 / – (17) 17
PC-Werkzeuge 18 / – (18) 18
Trend Micro 26 / – (26) 26
Webroot 81 / – (81) 81

[1] Obwohl die "User Dependent" FPs für den Nutzer äußerst ärgerlich sind (insbesondere bei sauberen Dateien), wurden sie bei der "False-Positives-Rate" (FPs) nur zur Hälfte berücksichtigt, wie auch bei der Schutzrate.

Um festzustellen, welche Produkte aufgrund der Anzahl der fälschlicherweise gesperrten Websites/Dateien in unserem Vergabesystem herabgestuft werden müssen, haben wir unsere Entscheidung durch die Anwendung einer Clustermethode und die Betrachtung der Durchschnittswerte untermauert. Die folgenden Produkte mit überdurchschnittlich hohen FPs wurden herabgestuft: AVIRA, K7, PC-Tools, Trend Micro und Webroot.

Zusammenfassung - Ergebnis

Testzeitraum: August - November 2011 (1898 Testfälle)

Das nachstehende Diagramm zeigt die Gesamtschutzrate (alle Proben), einschließlich der Mindest- und Höchstschutzraten für die einzelnen Monate.

BlockiertUser-DependentKompromittiertSchutzrate
[Blocked % + (User Dependent % / 2)]
Cluster
Symantec18866699.5%1
Bitdefender 1886- 1299.4% 1
Kaspersky 1877 8 1399.1% 1
Qihoo 1872 11 1598.9% 1
Trend Micro 1876- 2298.8% 1
F-Secure 1872 5 2198.8% 1
G Data 1874- 2498.7% 1
AVIRA 1864- 3498.2% 1
Panda 1849- 4997.4% 2
ESET 1844 7 4797.3% 2
AVG 1843 1 5497.1% 2
McAfee 1835- 6396.7% 2
K7 1811 40 4796.5% 2
Sophos 1810 2 8695.4% 3
PC-Werkzeuge 1743 130 2595.3% 3
Avast 1780 49 6995.1% 3
Webroot 1775 2 12193.6% 4

In diesem Real-World Protection Test erreichte Award-Levels

Die Auszeichnungen werden von den Testern auf der Grundlage der beobachteten Testergebnisse (nach Konsultation statistischer Modelle) entschieden und vergeben. Die folgenden Auszeichnungen beziehen sich auf die Ergebnisse der Prüfung des dynamischen Schutzes des gesamten Produkts:

* Diese Produkte wurden aufgrund der Fehlalarme schlechter bewertet.

Anmerkungen

Die meisten Betriebssysteme verfügen bereits über eigene Firewalls und automatische Aktualisierungen und fragen den Benutzer vor dem Herunterladen oder Ausführen von Dateien, ob er dies wirklich tun möchte, und warnen ihn, dass das Herunterladen/Ausführen von Dateien gefährlich sein kann. E-Mail-Clients und Web-Mails enthalten ebenfalls Spam-Filter. Außerdem verfügen die meisten Browser über Popup-Blocker, Phishing-/URL-Filter und die Möglichkeit, Cookies zu entfernen. Dies sind nur einige der eingebauten Schutzfunktionen, aber trotz all dieser Maßnahmen können Systeme trotzdem infiziert werden. Der Grund dafür ist in den meisten Fällen der normale Benutzer, der durch Social Engineering dazu verleitet werden kann, bösartige Websites zu besuchen oder bösartige Software zu installieren. Die Benutzer erwarten, dass ein Sicherheitsprodukt sie nicht fragt, ob sie eine Datei wirklich ausführen wollen, sondern dass das Sicherheitsprodukt das System in jedem Fall schützt, ohne dass sie darüber nachdenken müssen, und ungeachtet dessen, was sie tun (z. B. das Ausführen unbekannter Dateien). Wir versuchen, gute und leicht lesbare Testberichte für Endbenutzer zu erstellen. Wir arbeiten ständig daran, unsere automatisierten Systeme weiter zu verbessern, um einen besseren Überblick über die Produktfunktionen zu erhalten.

Copyright und Haftungsausschluss

Diese Veröffentlichung ist Copyright © 2011 von AV-Comparatives ®. Jegliche Verwendung der Ergebnisse, etc. im Ganzen oder in Teilen, ist NUR nach ausdrücklicher schriftlicher Zustimmung der Geschäftsführung von AV-Comparatives vor einer Veröffentlichung erlaubt. AV-Comparatives und seine Tester können nicht für Schäden oder Verluste haftbar gemacht werden, die sich aus der Verwendung der in diesem Dokument enthaltenen Informationen ergeben könnten. Wir bemühen uns mit aller Sorgfalt um die Richtigkeit der Basisdaten, eine Haftung für die Richtigkeit der Testergebnisse kann jedoch von keinem Vertreter von AV-Comparatives übernommen werden. Wir übernehmen keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung für einen bestimmten Zweck der zu einem bestimmten Zeitpunkt bereitgestellten Informationen/Inhalte. Niemand, der an der Erstellung, Produktion oder Lieferung von Testergebnissen beteiligt ist, haftet für indirekte, besondere oder Folgeschäden oder entgangenen Gewinn, die sich aus der Nutzung oder der Unmöglichkeit der Nutzung der auf der Website angebotenen Dienste, Testdokumente oder damit zusammenhängenden Daten ergeben oder damit zusammenhängen.

Für weitere Informationen über AV-Comparatives und die Testmethoden besuchen Sie bitte unsere Website.

AV-Comparatives
(Dezember 2011)