Notiz Open-Source-Packprogramm: 7-Zip 24.05 mit neuen Funktionen für die 7z-Archiverstellung

Wenn die Linux-Integration nur etwas besser wäre... aber das ist wohl nicht so einfach mit den ganzen verschiedenen Oberflächen. Bei Cinnamon zB wirds integriert, aber man kann die Details (Split, Komrimierungsgrad, etc.) nicht auswählen, nur über die Konsole.
 
Caramon2 schrieb:
[...]
Ich denke das ist zu kompliziert gedacht: Normalerweise archiviert man ja gerade deshalb, um den alten Zustand wiederherstellen zu können, also gerade diese Änderungen wieder rückgängig zu machen.
[...]
Mit 7-Zip usw. macht man keine Systemsichung: Dafür sind die überhaupt nicht geeignet und mit der "Wiederherstellung" würde man es sich irreparabel zerschießen.
[...]
Man packt Dateien/Verzeichnisse, um sie platzsparend zu archivieren oder zu verschicken und wer das macht, während noch daran gearbeitet wird, ist selbst schuld.
Was deine Annahme ist, was legitime Anwendungsfälle sind und was die Containerformate und Bibliotheken für Kompression prinzipiell an Funktionalität bieten und entsprechend Problembehandlung brauchen sind halt zwei paar Schuhe.
 
tollertyp schrieb:
Weil Entwickler zu faul sind, das neue Kontextmenü zu unterstützen...
Nein, weil Microsoft tatsächlich das macht, was du 7zip vorwirfst: sich nicht im Geringsten für die Wünsche und Bedürfnisse der User interessieren :freak:

UrlaubMitStalin schrieb:
Wenn die Linux-Integration nur etwas besser wäre...
Im Unterschied zu Windows hat man unter Linux halt in aller Regel vernünftige Lösungen per Default in den DE dabei ;)
 
  • Gefällt mir
Reaktionen: mojitomay
Termy schrieb:
Nein, weil Microsoft tatsächlich das macht, was du 7zip vorwirfst: sich nicht im Geringsten für die Wünsche und Bedürfnisse der User interessieren :freak:
Dann mach es wie ich: Kehre der Software den Rücken.
Ergänzung ()

orodigistan schrieb:
Also im neuen Windows-11-Kontextmenü?

Also nicht hier:
1716138066582.png
 
UrlaubMitStalin schrieb:
Wenn die Linux-Integration nur etwas besser wäre... aber das ist wohl nicht so einfach mit den ganzen verschiedenen Oberflächen. Bei Cinnamon zB wirds integriert, aber man kann die Details (Split, Komrimierungsgrad, etc.) nicht auswählen, nur über die Konsole.
Ich nutze xArchive und Xfce (hat nichts miteinander zu tun).

RMB/Archiv erstellen:

xArc_1.png

Archivtyp wählen (die Farbverfälschung kommt von der Reduktion auf 8 Bit Farbtiefe - mit GIMP):

xArc_2.png

Und nach dem Klick aus "Anlegen" kann man einige Optionen konfigurieren:

xArc_3.png

Aber Klickibunti ist mir für sowas zu umständlich. Ich habe das lieber schön übersichtlich in einer Befehlszeile: Das stellt man sich einmal zusammen und kann dann immer davon profitieren.

xArchiver nutze ich nur um mir Archive anzusehen oder zum entpacken:

xArc_4.png
 
Zuletzt bearbeitet: (Ungewollten Anhang gelöscht)
  • Gefällt mir
Reaktionen: UrlaubMitStalin
Caramon2 schrieb:
Um es einfach zu halten, werden nur Dateien mit identischen Dateinamen verglichen, was ja auch 7-Zip macht, wenn man nach Dateiendung sortiert. Dazu braucht ein kein großes Wörterbuch, sondern es muss nur so groß sein, dass die jeweils identischen Dateien rein passen.
Nein stimmt so nicht. Ich hab gerade RAR mal ausgepackt. Hab mir ein 3,5Gbyte MKV genommen. Hab es kopiert und den Namen geändert. Beide Dateien markiert und mit RAR gepackt (Option aktiviert: identische Dateien mit verweis!). Ergebnis: ein Archiv mit 3,5Gbyte Größe. Datei 1 ist miniminimal gepackt und Datei 2 ist nur verweis und im Archiv 0byte groß. Wenn ich jetzt die Datei lösche, wird quasi nur "getauscht" - der verweis fällt weg und die Datei 1 ist jetzt Datei 2.

Da wird also mehr als nur Dateinamen verglichen. Und das fehlt mir leider bei 7z. Das sortieren ist da zwar ein Anfang - setzt aber immer noch entsprechend große Wörterbücher (=RAM) voraus. Rar braucht einfach CPU-Leistung um die Dateien schnell abzugleichen. Bei 2x 3,5Gbyte hat das jetzt auf einen 3400G schon etwas gedauert. Fast so lang wie das Packen selber ;) ... Allerdings packt man MKV auch nicht....
 
  • Gefällt mir
Reaktionen: Caramon2 und tollertyp
WulfmanGER schrieb:
Hab mir ein 3,5Gbyte MKV genommen. Hab es kopiert und den Namen geändert. Beide Dateien markiert und mit RAR gepackt (Option aktiviert: identische Dateien mit verweis!). Ergebnis: ein Archiv mit 3,5Gbyte Größe. Datei 1 ist miniminimal gepackt und Datei 2 ist nur verweis und im Archiv 0byte groß. Wenn ich jetzt die Datei lösche, wird quasi nur "getauscht" - der verweis fällt weg und die Datei 1 ist jetzt Datei 2.
Ich hätte nicht gedacht, dass die das so aufwändig gelöst haben.

D. h., dass vor dem packen sämtliche zu archivierenden Datein gescannt werden müssen (vermutlich werden Hashes der einzelne Dateien gebildet und miteinander verglichen: so arbeiten z. B. Tools wie fdupes).

Das müsste bei größeren Sachen auffallen:

Also wenn du vor dem Packen rebootet hättest, so dass die MKVs nicht mehr im Datenträger-Cache sind, müsste es erst die 7 GiB kompett scannen, bevor es mit dem packen beginnt. - Bei einer SATA-SSD würde das ca. 15 Sek. dauern und die HD-LED konstant leuchten.

WulfmanGER schrieb:
Da wird also mehr als nur Dateinamen verglichen. Und das fehlt mir leider bei 7z.
Zum einen stimmt das, aber andererseits wüsste nicht, unter welchen Umständen mir das was bringen würde: Ich wüsste nicht, weshalb ich ein Archiv mit mehreren großen identischen Dateien anlegen sollte.

Wo ist der praktische Nutzen?

WulfmanGER schrieb:
Das sortieren ist da zwar ein Anfang
Leider genau umgekehrt:

Früher hat 7zip standardmäßig nach Dateiendungen sortiert, aber weil das dann auch in der Reihenfolge entpackt wird, so das auf HDs "wild" über alle im Archiv enthalten Verzeichnisse verteilt wiederhergestellt werden, hat man es irgendwann stattdessen standardmäßig nach Verzeichnis sortiert packen lassen. - Im Internet findet man einige Aussagen, dass 7zip mit der Version plötzlich schlechter als sonst packt.

Zum Glück kann man das wenigstens noch erzwingen.

WulfmanGER schrieb:
- setzt aber immer noch entsprechend große Wörterbücher (=RAM) voraus. Rar braucht einfach CPU-Leistung um die Dateien schnell abzugleichen. Bei 2x 3,5Gbyte hat das jetzt auf einen 3400G schon etwas gedauert. Fast so lang wie das Packen selber ;)
Du meinst das scannen vor dem packen?

WulfmanGER schrieb:
... Allerdings packt man MKV auch nicht....
Jain: Wenn es in ein verschlüsseltes und/oder für kleinere Datenträger segmentiertes Archiv soll. - Die Komprimierung sollte man dann natürlich deaktivieren, da sinnlos verbratene Rechenzeit.

Btw:

Obiger Dupe-Check müsste sich aber auch dann das 2. Video sparen, wenn man statt komprimieren speichern wählt.
 
Ich konnte leider nichts dazu finden, von wo aus der Programmierer Igor Pavlov die Software seit dem Krieg weiterentwickelt. Ich hoffe, nicht von Russland aus?
 
Die Rolle zwischen "weiter benutzen" oder "nicht weiter benutzen"...
 
Ich meine inwiefern beeinflusst es das?
Ist alles aus Russland nun zwangsweise böse? Was entscheidender ist, ist doch die Haltung. Wenn der Entwickler böse Absichten hat, dann ist es egal, ob er in Russland sitzt oder in Deutschland. Der Quell-Code ist übrigens öffentlich einsehbar.
 
  • Gefällt mir
Reaktionen: Nowareeng
Caramon2 schrieb:
D. h., dass vor dem packen sämtliche zu archivierenden Datein gescannt werden müssen (vermutlich werden Hashes der einzelne Dateien gebildet und miteinander verglichen: so arbeiten z. B. Tools wie fdupes).

Im Prinzip schon ... aber ob sämtliche Dateien mit hashes geprüft werden... ICH würde es ja einfach machen: Schritt 1: welche Dateien haben gleiche Dateigröße, Schritt 2: Dateien mit gleicher Dateigröße könnten POTENTIELL identisch sein - hier mache ich ein Hash und prüfe.

Nach Dateigröße im ersten Schritt zu prüfen ginge viel schneller. Nur treffer werden genauer geprüft. Weiß aber nicht wie RAR das löst ...

Theoretisch könnte man hier ein Tool vor 7z setzen was Dateien passend legt und daraufhin die Wörterbuchgröße passend berechnet. Aus der EMU/MAME-Torrent-Szene kennt man ein Tool was dafür sorgt das gleiche Dateien immer HASH-Gleich gepackt werden (was per default nicht geht). Hier werden die Dateien vorher natürlich "manipuliert" (Erstelldatum etc. wird angepasst, gelöscht oder was auch immer) - geht bei einem normalen Packen natürlich nicht. Aber das Tool sortiert die Dateien auch immer gleich. Also grundsätzlich ist das nichts fremdes.

Caramon2 schrieb:
Zum einen stimmt das, aber andererseits wüsste nicht, unter welchen Umständen mir das was bringen würde: Ich wüsste nicht, weshalb ich ein Archiv mit mehreren großen identischen Dateien anlegen sollte.

Wo ist der praktische Nutzen?

Die 2 MKVs mit 3,5GByte waren jetzt nur ein Extremes Beispiel.
Ich hab das z.b. genutzt um meinen ARK:SA-Server zu backupen. ARK legt leider für JEDE MAP einen kompletten Server an - identische Dateien. Unterschied ist nur das Map-Ordner und die 2 Config-Dateien. Rest ist immer identisch. Jetzt hab ich 2 Maps (bald 3...9) ... Statt jetzt 30Gbyte ... obwohl die Dateien recht schlecht zu packen sind, liege ich bei einer Archivgröße von 10Gbyte (was in etwa den Server 1x +2x Map entspricht). 10Gbyte sind schneller mal eben von a nach b verschoben als 30Gbyte. Ist sicher nicht der einzige Speicherineffektive Server.

Wer das Format CBR kennt, kann diese Funktion auch nutzen um weiße Seiten die öfters vorkommen können (aber trotzdem 2-5Mbyte groß sind), auf diese weise zu "nullen". Da kommen schnell mal paar Mbyte zusammen (und je nach Endgerät/Übertragungsweg zählt jedes Megabyte was ich einsparen kann; Hotel in der Pampa - 100Mbyte sind angenehmer als 125Mbyte... Ich kann da ein Lied von singen!). Leider ist CBR nicht so kompatible wie CBZ (Zip statt RAR; Zip kennt in der Richtung leider nichts - selbst wenn - Calibre ist bei ZIP extrem wählerlisch - sobald ich bissel mehr kompression auswähle, kann das Teil schon nicht mehr gelesen werden.... mit internen Dateiverweisen würde es noch schlechter umgehen können; CB7 (7z) kann leider mein Viewer nicht; ist bei Bildern nämlich viel effektiver als RAR/ZIP)

Ich hab z.b. bei meinem Webserver mehrere doppelte Dateien - da ich öfters mal ein komplettes Backup mache um mal eben schnell gravierende sachen zu ändern. Wenn ich diese 2-3-4 Ordner (schnell mal 1-2Gbyte groß) mal packe (um sie weg zu sichern), spare ich hier auch ... ein großteil der 1-2Gbyte je Ordner sind Bilder - die dann natürlich 2-3-4x existieren

Aber ja zugegeben - das ist jetzt alles kein Standard-Doing. Meist nutze ich Packer eh nur um z.b. Dateien die ich aktiv nicht mehr brauche, leichter zu sichern. Packen. Ablage. Fertig. Da hab ich selten duplikate drin. MP3, Fotos etc. wo auch gerne mal duplikate sind, packe ich nicht. Für die 2-3 Duplikate lohnt der Aufwand nicht. Einsparung zum Packen ist sonst auch extrem gering.

Trotzdem find ich die Funktion gut - wenn dann noch intelligent geprüft wird (Dateigröße -> dann Hash), ist der Zeitaufwand kaum relevant - dafür aber schnell der Speicherplatz.
 
  • Gefällt mir
Reaktionen: Caramon2
Weyoun schrieb:
Die Rolle zwischen "weiter benutzen" oder "nicht weiter benutzen"...
Ich installiere das aus dem AUR: Da wird der öffentliche Quellcode geladen und es local auf meinem Rechner kompiliert.

Da sicherlich auch Leute, die in der Lage sind das zu prüfen, die gleichen Bedenken haben, würde es schnell auffallen und gemeldet, wäre da was "böses" drin.

WulfmanGER schrieb:
Im Prinzip schon ... aber ob sämtliche Dateien mit hashes geprüft werden... ICH würde es ja einfach machen: Schritt 1: welche Dateien haben gleiche Dateigröße, Schritt 2: Dateien mit gleicher Dateigröße könnten POTENTIELL identisch sein - hier mache ich ein Hash und prüfe.
Stimmt!

WulfmanGER schrieb:
Nach Dateigröße im ersten Schritt zu prüfen ginge viel schneller. Nur treffer werden genauer geprüft. Weiß aber nicht wie RAR das löst ...
Das könntest du leicht prüfen:

Zwei identische Dateien mit unterschiedlichen Namen und eine ähnlich große mit nochmal anderen Namen.

Dann rebooten, damit nichts mehr im Datenträger-Cache ist und packen.

An der HD-LED kannst du dann abschätzen, ob nur die beiden identisch großen Dateien gescannt werden, oder auch die dritte, obwohl sie aufgrund der Dateigröße ja gar nicht identisch sein kann.

WulfmanGER schrieb:
Die 2 MKVs mit 3,5GByte waren jetzt nur ein Extremes Beispiel.
Das war mit durchaus bewusst. ;)

WulfmanGER schrieb:
Ich hab das z.b. genutzt um meinen ARK:SA-Server zu backupen. ARK legt leider für JEDE MAP einen kompletten Server an - identische Dateien. Unterschied ist nur das Map-Ordner und die 2 Config-Dateien. Rest ist immer identisch. Jetzt hab ich 2 Maps (bald 3...9) ... Statt jetzt 30Gbyte ... obwohl die Dateien recht schlecht zu packen sind, liege ich bei einer Archivgröße von 10Gbyte (was in etwa den Server 1x +2x Map entspricht). 10Gbyte sind schneller mal eben von a nach b verschoben als 30Gbyte. Ist sicher nicht der einzige Speicherineffektive Server.
Mich würde dabei schon die Verschwendung von Plattenplatz und die unnötige Schreiblast für die SSD ziemlich gegen den Strich gehen und versuchen das schon im Ansatz zu unterbinden.

Da ich ARK (generell Server) nicht kenne, weiß ich natürlich nicht, welche Möglichkeiten ich da hätte.

Mein erster Ansatz wäre, die identischen Dateien vorab als Symlink auf den ersten Server zu erstellen (ggfs. mit Schreibschutz), damit ARK "sieht", dass die schon da sind und nicht neu erstellen will, oder es zumindest dank Schreibschutz nicht erstellen kann.

Die würden dann auch als Symlink gepackt und wiederhergestellt, so dass auch be der Wiederherstellung keine unnötige Schreiblast entsteht.

Alternativ auch per Hardlinks (mit "cp -l …"), so dass es "richtige" Dateien sind, aber wie neulich schon geschrieben, erkennen normale Packer das nicht und packen sie wieder einzeln, bzw. RAR würde sie als identische Dateien erkennen - aber dann trotzdem als eigenständige Dateien wiederherstellen und man hat wider diese unnötige Schreiblast/Platzverschwendung.

WulfmanGER schrieb:
Wer das Format CBR kennt, kann diese Funktion auch nutzen um weiße Seiten die öfters vorkommen können (aber trotzdem 2-5Mbyte groß sind), auf diese weise zu "nullen". Da kommen schnell mal paar Mbyte zusammen (und je nach Endgerät/Übertragungsweg zählt jedes Megabyte was ich einsparen kann; Hotel in der Pampa - 100Mbyte sind angenehmer als 125Mbyte... Ich kann da ein Lied von singen!). Leider ist CBR nicht so kompatible wie CBZ (Zip statt RAR; Zip kennt in der Richtung leider nichts - selbst wenn - Calibre ist bei ZIP extrem wählerlisch - sobald ich bissel mehr kompression auswähle, kann das Teil schon nicht mehr gelesen werden.... mit internen Dateiverweisen würde es noch schlechter umgehen können; CB7 (7z) kann leider mein Viewer nicht; ist bei Bildern nämlich viel effektiver als RAR/ZIP)
Ich lese nur ePub: Auch ZIP, aber andere Komprssion bringt fast nichts:

Das größte des aktuellen Zyklus (Perry Rhodan) hat 7573 kiB:

Entpacke ich es und packe es mit ZIP und höchster Kompression, ist es gerade mal 14,1 kiB kleiner und als 7zip, solide und mit höchster Kompression werden gerade mal 147,1 kiB eingespart: Das sind nicht mal ganz 2%.

WulfmanGER schrieb:
Ich hab z.b. bei meinem Webserver mehrere doppelte Dateien - da ich öfters mal ein komplettes Backup mache um mal eben schnell gravierende sachen zu ändern. Wenn ich diese 2-3-4 Ordner (schnell mal 1-2Gbyte groß) mal packe (um sie weg zu sichern), spare ich hier auch ... ein großteil der 1-2Gbyte je Ordner sind Bilder - die dann natürlich 2-3-4x existieren
Wie gesagt: Backup mache ich mehrstufig und lasse dabei identische Dateien als Hardlinks übernehmen: Das spart eine Menge Zeit und Platz ("5" statt "S", damit ich es nummerisch sortieren kann: 5001 steht sozusagen für "Sicherung 001"):

Bash:
# du -sBM {5015..5001}
82937M    5015
 4630M    5014
 4342M    5013
 3958M    5012
 3986M    5011
 4346M    5010
 4500M    5009
 4823M    5008
 2531M    5007
  503M    5006
 1808M    5005
 2215M    5004
  274M    5003
 1892M    5002
  714M    5001

5015 ist die älteste (Anf. Sept.) und zeigt die komplette Größe.
(das Videoarchiv habe ich nur extern, da ich nicht ständig darauf zugreifen können muss und SSDs 2015 noch ziemlich teuer waren - da sich das bewährt hat, bin ich dabei geblieben)

Alle weiteren zeigen nur die Änderungen zur vorherigen Stufe, da "du" Hardlinks berücksichtigt.

Nach einiger Zeit lösche ich alle außer eine Stufe/Mon., so dass 5008 von Anf. April ist.

Ab da habe ich noch nicht wieder ausgemistet und sichere nach jeder größeren Änderung (oder bevor ich am System "basteln" möchte): 5004 ist von Anf. Mai.

Dabei ist jede Stufe für sich vollständig und hat die komplette Größe:
Code:
# du -sBM 5010
83250M    5010

# du -sBM 5005
83773M    5005

# du -sBM 5001
84021M    5001

Da z. B. der Dateimanager mit Hardlinks nichts am Hut hat (wie eben auch normale Packer), kommt er auf eine geringfügig höhere Gesamtgröße.

Das ist übrigens eine 500 GB 2,5" USB3-HD, es sind noch andere Sicherungen drauf (182 GiB davon einfach, also ohne Hardlinks) und das Dateisystem ist xfs, also keine Komprimierung (das meiste davon würde sich sowieso nicht komprimieren lassen):

Sicherungen.png

Hier zeige ich meine Sicherungsskripte.

WulfmanGER schrieb:
Trotzdem find ich die Funktion gut - wenn dann noch intelligent geprüft wird (Dateigröße -> dann Hash), ist der Zeitaufwand kaum relevant - dafür aber schnell der Speicherplatz.
Zweifellos: Ein eindeutiger Fall von besser haben und (ggfs.) nicht brauchen, als umgekehrt. :)
 
Caramon2 schrieb:
Ich installiere das aus dem AUR: Da wird der öffentliche Quellcode geladen und es local auf meinem Rechner kompiliert.
Das sagt mir leider nur Bahnhof.
Caramon2 schrieb:
Da sicherlich auch Leute, die in der Lage sind das zu prüfen, die gleichen Bedenken haben, würde es schnell auffallen und gemeldet, wäre da was "böses" drin.
Das heißt, solange nix gefunden wurde, hofft man einfach das Beste? ;)
 
Weyoun schrieb:
Das sagt mir leider nur Bahnhof.
Im AUR lädt man keine Programme, sondern nur Skripte, das jeweilige Paket lokal erstellen.

Z. B. für Opera wir das originale .deb vom Opera-Server geladen und automatisch zu einem pacman-Paket konvertiert, das sich dann bei Arch und Derivate installieren lässt.

Bei 7-zip holt sich das Skript dagegen den Quellcode und lässt es lokal kompilieren, um daraus dann ein pacman-Paket zu erstellen.

Das kompilieren dauert übrigens ewig:

Obwohl das nur ein kleines Tool ist, braucht das auf meinen 4 GHz AMD FX-8350 ca. 3 Min., wobei nicht mal mehrere Kerne genutzt werden.

Ein einziges Mal habe ich mit dem entsprechenden AUR-Skript den Kernel 5.15 kompilieren lassen: Auch das war nur singlethread und hat über 5 Stunden gedauert!

Da war für mich klar: NIEMALS Gentoo! ;)

Weyoun schrieb:
Das heißt, solange nix gefunden wurde, hofft man einfach das Beste? ;)
Zumindest hofft man fundiert: Es kann von jedem geprüft werden, manche machen das wahrscheinlich auch immer mal wieder und bisher war es sehr viele Jahre ein seriöses Projekt.

Wie es auch vor Gericht heißt: Unschuldig, bis die Schuld bewiesen wurde.

Willst du wirklich sicher gehen, musst du nicht nur alles selbst programmieren, sondern auch die Hardware eigenhändig entwickeln und herstellen: Es gab schon versteckte Spionagechips auf diversen Mainboard (und wer weiß wo sonst noch), die Amis spioniern uns auf, die Engländer, die Chinesen, Nordkorea hört man immer wieder bzgl. Cyperangriffe, usw.

Wem kann man denn noch ernsthaft trauen?

Ich nutze kein Facebook und kein WhatsApp, kenne Twitter, Insagramm, usw. nur vom Namen (habe die noch nie genutzt), betreibe Windows schon seit 2015 ausschließlich offline und fast immer nur per VM, aber auf mein 14 Jahre altes Google-Konto und mein jeweils aktuelles Android-Gerät (auch seit 2010: nur dafür hatte ich mich ursprünglich bei Google angemeldet) möchte ich nicht mehr verzichten. - In der ganzen Zeit habe ich da keine Auffälligkeiten bemerkt und das einzige blöde daran ist, dass man bei GMail nicht den Spam-Filter deaktivieren kann:

Ich bekomme keinen Spam und das dämliche Ding filtert immer wieder sorgar Antworten auf meine Mails von meinen eigenen, im Google-Konto gespeicherten Kontaken! - Wie blöd ist das denn!?
 
Weyoun schrieb:
Das heißt, solange nix gefunden wurde, hofft man einfach das Beste? ;)
Überprüfst du jeden Quell-Code jeder Soft- und vor allem auch Hardware, die du nutzt? Oder stellst du wenigstens sicher, dass dieser überprüft wurde?
Inwiedern ist es jetzt ein No-Go, falls es sich um Software handeln sollte, die jemand im Land Russland entwickelt hat?

Und bei Hardware geht es auch um Firmwares.
 
tollertyp schrieb:
Inwiedern ist es jetzt ein No-Go, falls es sich um Software handeln sollte, die jemand im Land Russland entwickelt hat?
Weil niemand weiß, ob Putins Vasallen den Programmierer zwingen, irgendwelche schwer zu findenden Einfallstore reinzuprogrammieren. Wäre der Programmierer im Exil, würde ich es per se weniger kritisch sehen.
 
Und warum müsste er sich dafür in Russland aufhalten?
Wo leben seine Eltern?
 
  • Gefällt mir
Reaktionen: Caramon2
Zurück
Oben