Immer mehr Filehoster gehen vom Netz. Ein Nach- und ein Weckruf

Also den Zusammenhang zwischen kostenfreiem (illegalen) Downloads, sprich dem massenhaften sammeln von digitalisierten Dateien und Kapitalismus musst du mir aber nochmal erklären.
Den sehe ich da nun wirklich nicht. Kapitalismus ist auf absolute Gewinnmaximierung , deswegen geht man ja so extrem gegen die filehoster vor.
Für mich persönlich muss ich sagen, dass so lange es das Usenet gibt, mir die filehoster wirklich relativ egal sind. Gibt nicht wenige die mit wirklich zwielichtigen Gruppierungen Umsatz machen, und zwar gezielt.
Was wirklich kritisch ist, wenn das Internet Archiv offline gehen sollte. Denkt man weiter, wäre der nächste oder übernächste Schritt Wikipedia, nicht aus urheberrechtlichen gründen. Aber wie wir alle wissen, ist es relativ leicht mit den richtigen Agenturen und genug Millionen, Stimmung gegen alles und jeden zu machen

Klar, deshalb bin ich ja für kostenfreie dezentrale Netze. Denn diese muss im Gegensatz zu kostspieliger zentralistischer Infrastruktur nicht monetarisiert werden sondern kann einfach so laufen.

Nu, die Filehoster sind ja selbst Kapitalistisch und wollen ihren Gewinn auf Kosten der Urheber ausweiten.

Zumal halt auch immer mehr content irgendwie verseucht ist.

Den Datenbestand des Internet Archive dezentral zu speichern wäre doch ein interessanter Ansatz. Wenn wohl auch technisch nicht ganz so einfach umsetzbar.

Das gemeinnützige Projekt speichert als Internet Archive mehr als 561 Milliarden Webseiten und zusätzlich Medien. (Febr. 2023)

Der Datenbestand wächst jeden Monat um rund 27 - 34 Terabyte (plus!)! Tendenz steigend!

Das muß erstmal eine dezentrale oder verteilte Speicherlösung verwalten können! Das geht natürlich alles technisch…aber die Kosten wären wohl kaum in Worte zu fassen aktuell !

Zu den genannten Datenmengen oben, kommt erschwerend hinzu, dass ja auch das bestehende Archiv (seit 1996) erst noch auf einen Mirror umziehen müsste! HGW sag ich da mal und viel Glück, dass der Datenverlust minimal bleibt… :wink:

Ja, die Filehoster agieren kapitalistisch. Aber sie weiten die Umsätze nicht um, sie leiten sie zu sich selbst um…

Laut → tribler.org ist das der derzeitige Stand der Dinge:

Wir nutzen unseren Jenkin-Server, um automatische Tests durchzuführen. Der aktuelle Code kann einen Durchsatz von 5 MByte/s erreichen, wenn die gesamte Verschlüsselung deaktiviert ist. Bei aktivierter Verschlüsselung auf bescheidener Hardware reduziert sich dieser Wert auf 0,5 MByte/Sek. Ein klarer Punkt für Verbesserungen. Automatischer Codetest auf dem DAS4-Computercluster Eine neue Beta-Funktion macht die Verschlüsselungsschicht tolerant gegenüber Paketverlusten .

Bekannte Schwächen:
Wir schwächen die Sicherheit durch Dezentralisierung.
Wir bauen auf der hervorragenden Arbeit der Tor-Community auf. Durch die Dezentralisierung ist unser Ansatz leider schwächer als das ursprüngliche Tor-Protokoll plus Netzwerk.

IMO → Wie will man, bitte schön, diese Werte und die inkludierten Mankos, einem p2p’ler schmackhaft machen?!
Ich habe irgendwie im Verdacht, dass sich Tribler bei der Lösung seiner bekannten Probleme seit zig Jahren nur im Kreis dreht. Tribler nutzt u.a. auch DHT / PEX - eine Announce-Methodik, die bei eigentlich allen ALTs (egal, mit welcher Source) schon immer „denied“ war und ist! Somit wäre Tribler erstmal nur bei „openTracker“ überhaupt eine Option, die ich aber selbst dort nicht ernsthaft sehe, wegen der genannten Problematiken! :wink:

0,5 MByte/Sek ? Das kann man doch niemandem ernsthaft vorschlagen, egal wie sicher es sein mag (oder auch nicht).

Da bleiben die Leute auf jeden Fall bei den shize Sharehostern und saugen mit dem, was ihre DSL-Leitung hergibt.

Natürlich, unterliegt ein gewinnorientiertes Unternehmen kapitalistischen Mechanismen. Allerdings ging es mir doch um das kostenfreie runterladen, was ja bis auf evtl minimale Werbeeinnahmen nix bringen dürfte. Glaube allerdings auch nicht, dass es bei 90% der filehoster weniger um kapitalistische gewinne, als um das reine überleben des Dienstes geht. Ja, es gab Ausnahmen - Mega, rapidshare usw. Daran sieht man doch, dass sobald die Gewinne eine Nennswerte Grenze überschreiten, die „Contentmafia“ alles dran setzt den Laden dicht zu machen.
Sehe allerdings immer noch nicht den Bezug von Kapitalismus hinzu zum kostenfreien saugen und bunkern von digitalen Medien.

Bezüglich der dezentralisierte Speicherung des Internet Archivs schreibe ich jetzt Mal in guter deutscher politischer Tradition🤣 " wäre die Blockchain dafür nicht geeignet?"

Für Ebooks die so 100KB-5MB groß sind… So sache wie Sci Hub da wäre das Tribler schon was. Bei kleineren mini files kommt es ja nicht so sehr darauf an ob die nun mit 0.5MB/Sec oder 100MB/sec downloaden.