1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen
  2. Bitte schaltet eure Ad Blocker aus. SLinfo kann nur betrieben werden, wenn es durch Werbung Einnahmen erzielt. Vielen Dank!!
    Information ausblenden
  3. Wir freuen uns, wenn du dich in unserem Forum anmeldest. Bitte beachte, dass die Freigabe per Hand durchgeführt wird (Schutz vor Spammer). Damit kann die Freigabe bis zu 24 Stunden dauern.
    Information ausblenden

Neuer Laptop, Phönix und Firestorm gehen nicht

Dieses Thema im Forum "Phoenix / Firestorm" wurde erstellt von Melody Cygnet, 5. Juni 2012.

  1. Melody Cygnet

    Melody Cygnet Neuer Nutzer

    Beiträge:
    3
    Zustimmungen:
    0
    Punkte für Erfolge:
    0
    Grüsse erst mal allen

    ich habe mir einen neuen Laptop gekauft derauch den anspruch an SL gerecht sein sollte.
    Ich habe dann alles erstmal halbwegs eingerichtet und dann auch den Firestorm.
    Alles lief super, nein es läuft fast alles super, tolle Grafik und super schnell.
    Ich startete den Firestorm und war überrascht das dies nur ein ruckeln des Bildes ist, brauchte auch lange zum starten, wärend des Betriebes baute dieser nur zaghaft die Grafiken auf was dann in einigen Minuten immer langsamer wurde und dann gar nichts mehr ging.
    Ich habe dann den Phönix Installiert und bei diesem war dann das selbe Problem.
    Dann den Slviewer Installiert und der läuft toll alles und noch viel besser als ich es von meinen alten Laptop und Firefox gewohnt war.
    Ich bitte und flehe mir da doch zu helfen, mir ist es sehr wichtig mit dem Firestorm in SL unterwegs zu sein.
    Hier mal die Daten aus meinem Laptop:

    ganz Herzlichsten Dank..
    Melody

    Bildschirm
    Name Generic PnP Monitor an Intel HD Graphics Family
    Aktuelle Auflösung 1440x900 Pixel
    Arbeits Auflösung 1440x860 Pixel
    Status aktiviert, Primär
    Monitor Breite 1440
    Monitor Höhe 900
    Monitor BpP 32 bit pro Pixel
    Monitor Frequenz 60 Hz
    Gerät \\.\DISPLAY1\Monitor0
    GPU GF108
    Geräte ID FFFF-FFFF
    Revision 100
    Händler Illegal Vendor ID (FFFF)
    Die-Größe 116 nm²
    Erscheinungs-Datum Jan 06, 2011
    DirectX Support 11.0
    OpenGL Support 5.0


    Speicher
    Typ DDR3
    Größe 6144 Mbyte
    Kanäle # Dual
    DRAM Frequenz 665.3 MHz
    CAS# Latenz (CL) 9 clocks
    RAS# zu CAS# Verzögerung (tRCD) 9 clocks
    RAS# Precharge (tRP) 9 clocks
    Cycle Time (tRAS) 24 clocks
    Befehlsrate (CR) 1T
    Pysischer Speicher
    Speichernutzung 28 %
    Pysisch insgesamt 5.91 GB
    Physisch verfügbar 4.21 GB
    Virtuell insgesamt 12 GB
    Virtuell verfügbar 9.91 GB
    SPD
    Anzahl an SPD Modulen 2
    Slot #1
    Slot #2
    ROPs 16
    Shader 96 vereinheitlicht
    OpenGL
    Version 3.0.0 - Build 8.15.10.2266
    Vendor Intel
    Renderer Intel(R) HD Graphics Family
    GLU Version 1.2.2.0 Microsoft Corporation
    Werte
    GL Extensions
     
  2. Maybeso

    Maybeso Guest

    irgend etwas ist definitiv falsch konfiguriert.

    Name Generic PnP Monitor an Intel HD Graphics Family
    .
    .
    Renderer Intel(R) HD Graphics Family

    Deutet darauf hin, dass da die Intel-HD-Grafik läuft, obwohl eigentlich ein NVidia GF108 drin ist.
    Ist eventuell das NVidia "Optimus" nicht aktiviert / falsch konfiguriert?

    Starte bitte mal einen Viewer und poste mal das in der SL-Help ausgewiesene
    Harddware-Profil, da kann man mehr draus ersehen als aus der HW-Auflistung.
     
  3. Georg Rang

    Georg Rang Superstar

    Beiträge:
    3.275
    Zustimmungen:
    0
    Punkte für Erfolge:
    36
    Die Intel HD Grafik läuft in der Regel bei Akkubetrieb, bei Netzbetrieb die Nvidia. Hat Stromspargründe. Also wenn dieses Log im Akkubetrieb erstellt wurde, ist klar warum da die Intelgrafik drin steht.
     
  4. Maybeso

    Maybeso Guest

    Nicht unbedingt -
    NVidia hat eine nette Umschalttechnik namens "Optimus", die den Grafikchip nach Bedarf zuschaltet. Nvidia Optimus

    Deswegen auch meine Bitte, mal die Help-Hardwareinfos aus dem Viewer selbst anzugeben... wenn der Optimus-Treiber in Ordnung ist, müsste da
    nämlich die Nvidiagrafik zu sehen sein. Die Fehlerbeschreibung passt recht gut zu dem Verhalten mit einer Intel-HD-Grafik.
     
  5. Georg Rang

    Georg Rang Superstar

    Beiträge:
    3.275
    Zustimmungen:
    0
    Punkte für Erfolge:
    36
    Dann ist Nvidia da schon ein Stück weiter als ATI oder mein Laptop mit knapp einen Jahr schon wieder veraltet.
     
  6. angelika Schmertzin

    angelika Schmertzin Superstar

    Beiträge:
    1.983
    Zustimmungen:
    139
    Punkte für Erfolge:
    63
    Frage wäre ja warum dann der SL Viewer sauber und gut läuft?

    Ich habe ihr jedenfalls gesagt, das sie die Info des Firestormviewers mal hier posten soll
     
  7. Vogelfrei1986

    Vogelfrei1986 Nutzer

    Beiträge:
    50
    Zustimmungen:
    0
    Punkte für Erfolge:
    0
    Ja Nvidia ist da schon weiter. Jedoch lässt sich über die Sache streiten ob sie gut oder schlecht ist.
    Denn bei der ATI mach ich die extra Grafikkarte an und ich weis das sie läuft bei der "Optimus" Technik kann es sein das sie zum Beispiel genau beim zocken einfach mal die Grafikkarte wechselt. Da die Umschaltung so abläuft das du das nicht einmal mitbekommst wunderst dich bloß warum alles zuckelt mit einmal. Vor paar Monaten war es auch nicht möglich dem Notebook zu sagen das er immer die Extra Grafik nehmen soll weis nicht ob das immer noch so ist.
     
  8. Melody Cygnet

    Melody Cygnet Neuer Nutzer

    Beiträge:
    3
    Zustimmungen:
    0
    Punkte für Erfolge:
    0
    Zum Thema....((Neuer Laptop, Phönix und Firestorm gehen nich))

    Hallole, Melody ist nun wiederda.
    Ich komme dem Rat, und vor allem Meine Miss Angel baten mich diesen Secount Life Help hier herbringen.
    Ich freue mich sehr das so viele Antworten kamen und bin nun sehr zuversichtlich das mein Problem gelöst wird.

    Grüsse Ech von Herze

    vor allem meine Herrin und Lebenshilfe Miss Angel



    Firestorm 4.0.1 (27000) Mar 19 2012 16:21:21 (Firestorm-Release)
    Versionshinweise

    Sie befinden sich in 165.460,0, 265.179,0, 34,5 in Aventurien II auf sim20714.agni.lindenlab.com (216.82.28.239:13001)
    Second Life Server 12.06.04.258754
    Versionshinweise

    CPU: Intel(R) Core(TM) i7-2670QM CPU @ 2.20GHz (2195.08 MHz)
    Speicher: 6057 MB
    Betriebssystem, Version: Microsoft Windows 7 64-bit Service Pack 1 (Build 7601)
    Grafikkarten-Hersteller: Intel
    Grafikkarte: Intel(R) HD Graphics Family

    Windows Grafiktreiber-Version: 8.15.0010.2266
    OpenGL Version: 3.0.0 - Build 8.15.10.2266

    RestrainedLove API: RLV v2.7.0 / RLVa v1.4.5a
    libcurl-Version: libcurl/7.21.1 OpenSSL/0.9.8q zlib/1.2.5 c-ares/1.7.1
    J2C-Decoderversion: KDU
    Audio-Treiberversion: FMOD version 3.750000
    Qt Webkit-Version: 4.7.1 (version number hard-coded)
    Voice-Serverversion: Vivox 2.1.3010.6270

    Settings mode: Firestorm
    Viewer Skin: firestorm (grey)
    Font Used: Deja Vu (96)
    Draw distance : 128
    Bandwidth : 3000
    LOD factor : 2
    Kompiliert mit MSVC version 1600
    Paketverlust: 1/10.178 (0,0%)
     
  9. Nicoletta Schnute

    Nicoletta Schnute Forumsgott/göttin

    Beiträge:
    8.042
    Zustimmungen:
    717
    Punkte für Erfolge:
    123
    Welcher Virenscanner ist installiert?
     
  10. Georg Rang

    Georg Rang Superstar

    Beiträge:
    3.275
    Zustimmungen:
    0
    Punkte für Erfolge:
    36
    Also das Laptop nutzt wenn der Firestorm läuft die IntelGrafik anstatt die Nvidiakarte, somit ist auch klar warum alles ruckelt. Wie man das Laptop nun überzeugt auf den Nvidiachip zuzugreifen weiß ich allerdings nicht.
     
  11. Man kann in der NVIDIA Systemsteuerung unter "3D-Einstellungen verwalten" für jedes Programm festlegen, welcher Grafikprozessor genutzt werden soll...
     
  12. Nicoletta Schnute

    Nicoletta Schnute Forumsgott/göttin

    Beiträge:
    8.042
    Zustimmungen:
    717
    Punkte für Erfolge:
    123
  13. Shirley Iuga

    Shirley Iuga Forumsgott/göttin

    Beiträge:
    7.507
    Zustimmungen:
    2
    Punkte für Erfolge:
    36
    Wobei die Nvidia-Karte leider auch keine Wunder vollbringen wird.
    In der CPU ist eine Intel HD3000 Einheit, die mit 12 Shader Einheiten und 650MHz arbeitet. Welche Nvidia das ist weiß ich nicht, allem Anschein nach eine GT5xxM mit GF108 Chip, also bestenfalls wohl eine GT550M, mit 128bit Interface und 1GB RAM (DDR3). Aber so wahnsinnig viel schneller als die HD3000 Einheit in der CPU ist das auch nicht, man wird bisschen mehr FPS haben, aber da auch die Nvidia GT550M eigentlich nur eine bessere Büro-GPU ist wird man zwar mit ihr bisschen mehr FPS haben als mit der Intel Einheit, aber höchste Qualität in SL mit Schatten und Antialiasing usw. dürfte schnell mal ruckeln. (Zum Vergleich: die GTX560, eine typische Spieletaugliche Mittelklasse-Karte für den Desktop, ist etwa 4 mal so schnell... selbst die Mobilversion GTX560M ist noch mehr als doppelt so schnell wie die Grafikeinheit mit GF108 Chip.)
     
  14. Dada Runo

    Dada Runo Forumsgott/göttin

    Beiträge:
    9.985
    Zustimmungen:
    1
    Punkte für Erfolge:
    0
    Zuletzt bearbeitet: 6. Juni 2012
  15. Nicoletta Schnute

    Nicoletta Schnute Forumsgott/göttin

    Beiträge:
    8.042
    Zustimmungen:
    717
    Punkte für Erfolge:
    123
    >OT:

    Das ist nicht der Codename sondern die GPU auf der die alle 400er Karten basieren.
     
  16. Dada Runo

    Dada Runo Forumsgott/göttin

    Beiträge:
    9.985
    Zustimmungen:
    1
    Punkte für Erfolge:
    0
    Nicoletta: ich glaube kaum das der Hersteller lügt: ....Die GeForce GT 430 basiert auf NVIDIAs aktueller 40-nm-GPU mit dem Code-Namen GF108, die bereits in zahlreichen Desktop-PCs und Notebooks.........
     
  17. Nicoletta Schnute

    Nicoletta Schnute Forumsgott/göttin

    Beiträge:
    8.042
    Zustimmungen:
    717
    Punkte für Erfolge:
    123
    OT:

    So ist es richtig Dada ;)
    Nicht nur die 430, sondern auch andere gforce Karten basieren auf der GF108 GPU
     
    Zuletzt bearbeitet: 6. Juni 2012
  18. Shirley Iuga

    Shirley Iuga Forumsgott/göttin

    Beiträge:
    7.507
    Zustimmungen:
    2
    Punkte für Erfolge:
    36
    Der GF108 Chip wird nicht in allen 4xx/5xx karten verwendet, sondern jewils nur in den Low-End Modellen, von der G410M bis zur GT435M und von der GT5120M bis zur GT550M.
    Die schnelleren Modelle (ab GT445M/GTX650M aufwärts) haben die deutlich leistungsfähigeren GF106/GT104/GT100/GF114/GF116 Chips mit deutlich mehr aktiven Einheiten (die Spitzenmodelle haben 8 mal so viele Recheneinheiten wie mit dem GF108, deswegen sind die auch um Welten schneller...). Und die GT630M (letzte Karte mit dem GF108 Chip) ist eigentlich nur eine GT540M mit neuem Etikett. Siehe u.a. auch Nvidia Geforce M

    Beim Kauf eines Notebooks bedeutet eben "hohe Nummer" oder "zuschaltbare Grafikkarte mit eigenem Speicher" leider nicht automatisch, dass die Karte, die noch verbaut ist, auch wirklich schnell ist, da muss man sich leider immer auch schlau machen welcher Chip da dann genau verbaut ist. Viele Hersteller werden leider nur mit "zusätzliche, leistungsfähige 3D Karte". Was für sich gesehen leider überhaupt nichts sagt, da die Hersteller für gewöhnlich dabei nicht erwähnen wie Leistungsfähig der GPU chip ist. Und oft genug steckt dann nur ein Low-End Chip wie der GF108 drin...
     
  19. Dada Runo

    Dada Runo Forumsgott/göttin

    Beiträge:
    9.985
    Zustimmungen:
    1
    Punkte für Erfolge:
    0
    Lest doch einfach mal den Bericht von NVidia da stehts genau beschrieben (link im Post 14)
     
  20. Shirley Iuga

    Shirley Iuga Forumsgott/göttin

    Beiträge:
    7.507
    Zustimmungen:
    2
    Punkte für Erfolge:
    36
    <leicht OT>
    Da steht eigentlich nur, dass in der GT430 ein GF108 Chip steckt. Was ja auch niemand bestreitet.
    Dieser GF108 Chip steckt aber, teilweise mit deaktivierten Einheiten, teilweise mit einer anderen Taktung, auch in der ein oder anderen Karte/GPU. Es ist sogar der gleiche Chip, der auch auf den Mobil-GPUs zum Einsatz kommt. Nur dass er da eben langsamer getaktet wird um weniger Strom zu verbraten.

    Beispiel: Wird der Chip ab Werk mit 0.7Ghz und die Shader Einheit mit 1.4 GHz getaktet, dann wird die GPU als GT430 verkauft. Die selbe Karte (selbes Layout, selbe Bauteile...usw.), nur mit 0.81Ghz Chip- und 1.62GHz Shadertakt wird als GT440 verkauft. Und in Notebooks steckt der selbe GF108 Chip, getaktet auf 0.5GHz Chip- und 1Ghz Shadertakt, wenn das als "GT420M" verkauft wird. Wobei in Notebooks der Grafikspeicher zusätzlich noch mit 0.8GHz statt 0.9GHz (wie am Desktop) angesteuert wird. Aber alle diese erwähnten Konfigurationen verfügen über die selben 4 Rasterprozessoren, 96 Stream-Prozessoren, 2 Shader Cluster und 16 Texturmapping-Einheiten.
    Oder anders ausgedrückt: Wenn man eine GT430 nimmt und einfach höher getaktet betreibt, dann hat man rein technisch gesehen eine GT440.

    In der Praxis testet Nvidia allerdings die Chips auf ihre Taktbarkeit, und diejenigen, die bei der Produktion nicht ganz so perfekt geworden sind und die sich z.B. nicht mit 1.6GHz stabil betreiben lassen, die können möglicherweise noch mit 1.4GHz stabil betrieben werden. Das liegt daran, dass auf dem Wafer (das ist die hauchdünne Siliziumscheibe aus der man die Chips produziert) nicht alle darauf gedruckten/belichteten 50 bis 100 Chips die selbe Qualität haben, weil auch das im Reinstraum produzierte Silizium mit 99.9999999999% Reinheit hier (kein Witz... das ist wirklich so rein) und da immer noch Fremdatome im Kristall hat. Und damit ein moderner Chip nicht mehr (richtig) mit voller Leistung funktioniert reicht manchmal schon ein falsches Atom als Verunreinigung auf dem Chip...
    </leicht OT>