Das Ganze läuft frei nach dem Motto: „Naja, der wird schon merken, wenn der Laden (Webseite, Forum oder Online-Shop etc.) plötzlich von niemandem mehr betreten wird.
Wenn man seine Seite bei der Google Search Console anmeldet, wird man per Mail informiert, wenn irgendwas mit der Seite nicht stimmt (egal ob häufige 404-Fehler oder Schadsoftware). Dieser Service ist kostenlos und dauert nur 5min um sich dort anzumelden. Wer das nicht macht und auf Google Traffic angewiesen ist, der ist selbst schuld (und hätte sich einfach nicht von Google Traffic abhängig machen sollen).
Fakt ist aber auch, dass man die Tätigkeit der Online-Vermarkter, die wiederum die Anzeigen teils aus verschiedenen Quellen beziehen, unmöglich 24 Stunden am Tag überwachen kann.
Verstehe ich richtig, dass auf der einen Seite kritisiert wird, dass sich Google bei einem nicht meldet (was schonmal nicht stimmt - siehe Search Console) wenn die Seite über Safe Browsing gesperrt wurde, aber der arme Publisher kann ja nicht 24/7 überprüfen, wenn über seine Werbeplattformen Schadcode ausgespielt wird?
Naja, also ich sehe hier ganz klar den Seitenbetreiber in der Verantwortung. Er ist evtl. nicht für die Ausspielung des Schadcodes verantwortlich, aber mindestens so schnell wie möglich zu reagieren wenn er davon erfährt. Und wenn er die völlige Kontrolle über Scripte auf seiner Webseite verliert, dann ist das eine logische Konsequenz, dass er auch die Kontrolle über Traffic verliert, wenn Schadcode eingeschleust wird.
Der Grundsatz In dubio pro reo (lateinisch für „Im Zweifel für den Angeklagten“) besagt, dass jeder Angeklagter vor Gericht bis zum Beweis seiner Schuld als unschuldig gelten muss. Daran halten sich solche selbst ernannten Internet-Polizisten offenbar nicht. Die drehen den Spieß herum. Bei denen gilt man als schuldig, bis man irgendwann dazu in der Lage war, seine Unschuld zu beweisen.
Wir sind aber nicht vor Gericht und keiner ist verpflichtet den Traffic irgendeiner Suchmaschine anzunehmen. Wer das z.B. ganz konkret nicht will, der kann seine komplette Seite bei Google deindexieren und die Suchmaschinenbots per robots.txt ausschließen. Wurde das hier auf der Tarnkappe schon gemacht oder greift man doch lieber auch den Google Traffic ab um hinterher auf Google Safe Browsing zu schießen und seltsame Vergleiche aus der Juristenwelt zu bringen?
Safe Browsing ist eine gute Sache und meine eigene Webseite war durch einen Hack eines veralteten Plugins schon betroffen. Ich wurde informiert, ich habe die Lücke schnellstmöglich geschlossen und ein paar Monate später hatte ich denselben Traffic wie zuvor. Ist erstmal bitter, ja, vor allem wenn man auf den Traffic geldmäßig angewiesen ist, aber die Leute trotz des Wissens seitens Google auf den Schadcode zuzulassen wäre unverantwortlich. Zumal jeder auch Safe Browsing deaktivieren kann um trotzdem auf die Seite zu gelangen.