Shirley Iuga
Forumsgott/göttin
Hast du dafür eine zuverlässige Quelle?
Außerdem: Warum sollte man sich alle paar Jahre einen neuen kompletten Desktop-PC kaufen, wenn man jedes einzelne Teil (einschließlich Motherboard, CPU und GraKa) jederzeit gegen neuere, leistungsfähigere Komponenten austauschen kann?
In 2 bis 4 Jahren wird es sicher weniger PCs geben. Und erst Recht in 5+ Jahren. Dafür gibts andere, vergleichbare Hardware. Weil man sich dann einen Gaming Server/Entertainment Server irgendwo ins Haus stellt, wo der laute Lüfter nicht stört. Z.B. in den Keller. Oder in den Abstellraum.
Während man per Steam & sonstiger Software die Darstellung dann direkt auf den großen Monitor streamen kann um dort zocken. Wer Egoshooter oder komplexere Games spielen will, der kann das wie gewohnt mit Maus & Tastatur machen (da taugen Konsolen-Controller wirklich nichts... ohne Aim-Hilfe sind die grauenhaft für sowas.), braucht am Monitor aber nur einen kleinen HDMI-Computer in der Größe eines USB-Sticks oder einer Scheckkarte anzustöpseln als Client. Und das ganze online zu realisieren per Videostreaming übers Internet haut technisch bei sehr vielen Spielen und anderen Echtzeit-Anwendungen leider nicht hin, da werden die Latenzen leider zu hoch, gegen die Lichtgeschwindigkeit sind die Ingenieure leider machtlos.
Genau deswegen wird es das PC-Prinzip bzw. Home-Server Prinzip wohl auch weiter geben, d.h. die Geräte, in die man alle 2 bis 3 Jahre einen neue GPU-Karte für 250€ bis 300€ stecken kann weil die CPU und der RAM noch völlig ausreicht. Und die man sich mehr oder weniger selbst aus verschiedenen Komponenten zusammenstellen kann. Konsolen sind leider eben (wie fertig-PCs auch) meist eine eher schlechte Kompromiss-Lösung.
Nebenbei braucht man auch im privaten immer mehr Rechenleistung; Beispiel digitale Bilder:
Um 2000 hatte meine Digicam noch knapp 5MP, mehr als einfache jpg oder kleine RAWs hatte sie nicht ausgespuckt. Das konnte man an jedem popligen Rechner einfach bisschen nachbearbeiten. Auch wenn er wirklich uralt war und wenn Win98 und Corel Draw grade so darauf gelaufen ist. Wirklich viel an der Nachbearbeitung konnte man damals nur mit Profi-Kameras machen, die dann mit > 10000DM auch locker 5 mal so viel gekostet hatten. Die Digitaltechnik war da immer noch in den Kinderschuhen und selbst die Profi-Cams konnten mit Film noch nicht wirklich mithalten.
Heute allerdings,15 Jahre später, hat sich die digitale Bildtechnik wahnsinnig weiter entwickelt: Der Sensor meiner DLSR Kamera hat jetzt 24MP (und das ist auch nur eine bessere Consumer-Cam...), die in etwa einem guten Film entsprechen, d.h. die Digitale Qualität kommt heute auch im Consumer-Bereich an Filme ran. Die benötigten Programme zur RAW-Entwicklung können auch um Welten mehr als früher noch. Aber dafür brauchts heute leider nicht nur am besten einen schnellen 8-Kern Prozessor mit > 4GHz, sondern auch viel schnellen RAM und schnelle Festplatten/SSDs. Einfach weil z.B. die 16-Bit Tiffs, die man dann heute aus den RAWs kriegt, schon 120MB groß sind. Und wenn man mehrere davon öffnet um z.B. HDR Pics zu berechnen, dann sind schnell mal 3+ GB RAM damit belegt. Selbst normale Performance Festplatten kommen mit ihren ca. 120MB/s bis 150MB/s, die sie maximal so schaffen dann durchaus an die Grenze bei dieser Geschichte. D.h. für Caches usw. sollte man am besten eine SSD haben.
Richtig Krass wird es aber dann, wenn man mit Videos arbeitet.
Vor 10 Jahren war das noch eher ein "Randgruppenhobby". Aber heute beherrschen selbst einfache Knipsen mit kleineren Sensoren für wenig Geld oft 4K-Filme ziemlich gut. Da fallen dann auch schon über 50MB/s an. Wenn man so paar Minuten beim heimischen Geburtstag filmt, dann hat man da schnell zig GB an Filmdaten. Und um die zu bearbeiten und zu schneiden brauchts ebenfalls nicht nur ordentlich Speicher und schnelle Laufwerke, sondern auch ordentlich Rechenpower. Einfach weil das ziemlich viele Pixel sind die geschubst werden wollen.
Mit ThinClients oder Micro-PCs, die in einem schnellen LAN am Home-Server hängen (und letztendlich nur den Desktop anzeigen) ist das so gar kein Problem. Da macht die Rechenarbeit die CPU und hin und wieder auch mal die GPU.
Mit Mobile Geräten, Tablets und Smartphones usw. wird das aber nichts. Und das Ganze nur übers Netz per Cloud zu machen ist auch nicht wirklich ideal, einfach weil das für viele Dinge bisschen zu langsam ist. Noch immer haben viele Haushalte unter 25Mbits Down und unter 5MBits Up. Und wer eben mal 8+ GB Daten ins Netz schieben will (soviel mach ich locker an einem späten Nachmittag mit dem Foto...für HDR brauchts z.B. Belichtungsreihen), der muss damit meist erst mal über 2h warten bis die Bilder im Netz sind. Macht man das nur im LAN, dann sind die Rohdaten in <5min auf dem NAS/dem Server.
Wenn dann mal die Haushalte per Gbit Glasfaser angebunden sind, dann schaut es womöglich auch wieder anders aus. Aber bis dahin dauert es noch eine ganze Weile.
Zuletzt bearbeitet: