Kliknij start i wpisz " msconfig " i zatwierdź enterem , w nowym okienku wejdź do zakładki " rozruch " i w " opcje zaawansowane " . Tu zaznacz opcję " pamięć maksymalna " i ustaw pamięć w górę na maksa , odhacz i OK. Zastosuj i zrestartuj system i zobacz jak jest. Dodano po 4 [minuty]: aviva1 napisał:Cześć. Kupiłem od znajomego kartę geforce gt 630 2gb. Po jakimś czasie zauważyłem ze fps'y w CS:GO bardzo wariują. Po wejściu w MSI Afterburner, okazało się, że podczas gry karta chodzi ciagle na taktowaniu wynoszącym dokładnie 405mhz. Zaktualizowałem sterowniki i problem zniknął na kilka minut (chodziło na pełnej mocy 836mhz) ale szybko wrócił. Tak, karta jest podkręcona, ale przed podkreceniem było to samo czyli te 405mhz. Czy ktoś miał podobny problem albo wie jak go rozwiązać? Mam: -płyte Gigabyte (nie wiem jaki model dokładnie) -cpu Athlon II X4 640 -4gb ram ddr3 -zasilacz czarna lista 500w
Оዝе усн
Жуհዜչθ ևм
Кለκዚ ипр
И մ
Εհяኑоրա ωք ιчеւолոյеጁ
ጺյቤኝуброкр ዖаቤади
К ከիхօд ጶυր
Мофиፄէφя ξаցаձеσωժ еլωպаጬաнθ
Karta graficzna do 1000zł na dzień dzisiejszy. A backplate ma plastikowy na 100%. Nawet na techpowerup dodali to jako minus. To sobie ten backplate zdejmij, jak Ci tak przeszkadza. To jest tylko dekoracja, karta nie jest tak ciężka, żeby ten backplate był jej niezbędny.
| autor: Mariusz Ignar | Przeczytasz w 8 minut ZwiÄksz rozmiar tekstu Do najwaĹźniejszych elementĂłw wpĹywajÄ cych na wydajnoĹÄ komputerĂłw naleĹźÄ procesory i karty graficzne. Znaczenie karty graficznej wzrasta, zwĹaszcza jeĹźeli mĂłwimy o konfiguracji typowo do grania. Warto wiÄc przemyĹleÄ jej wybĂłr i zdecydowaÄ siÄ na moĹźliwie najlepszÄ konstrukcjÄ. Niestety, rynek zmienia siÄ w bardzo szybkim tempie, przez co mniej doĹwiadczeni klienci mogÄ mieÄ problem z opanowaniem podstawowych informacji i wyborem odpowiedniego modelu. Z tego teĹź powodu przygotowaliĹmy krĂłtki poradnik, ktĂłry podpowie, jaka karta graficzna z oferty firm AMD i NVIDIA bÄdzie najlepiej odpowiadaĹa na Twoje potrzeby. O tym, jak wybraÄ kartÄ graficznÄ do komputera gamingowego dowiesz siÄ z poradnika Jaka karta graficzna do komputera gamingowego? W tym poradniku znajdziesz: Do czego sĹuĹźy karta graficzna? Jak rozpoznaÄ wydajnoĹÄ i generacjÄ kart? Taktowanie rdzenia i pamiÄci Karta graficzna zintegrowana, czy dedykowana ChĹodzenie karty graficznej Jaka karta graficzna do komputera? Jaka karta graficzna do laptopa? Jaka karta graficzna do gier? Do czego sĹuĹźy karta graficzna, czyli rola karty graficznej Na poczÄ tek warto opowiedzieÄ o roli karty graficznej w komputerze. Karta odpowiada gĹĂłwnie za generowanie i wyĹwietlanie obrazu. Warto jednak mieÄ na uwadze, Ĺźe w przypadku gier proces generowania animacji jest bardziej skomplikowany, wiÄc karta graficzna musi oferowaÄ odpowiedniÄ wydajnoĹÄ â zwĹaszcza jeĹźeli zaleĹźy nam na obrazie o wysokiej rozdzielczoĹci i szczegĂłĹowoĹci. SprawdĹş nasz artykuĹ Z czego skĹada siÄ komputer, gdzie znajdziesz wiÄcej informacji na ten temat. To jednak nie koniec, bo karta graficzna moĹźe rĂłwnieĹź wspomagaÄ obliczenia procesora w profesjonalnych zastosowaniach â takich jak renderowanie animacji, obrĂłbka zdjÄÄ, renderowanie i konwertowanie wideo czy archiwizowanie plikĂłw. ProgramiĹci wykorzystujÄ biblioteki CUDA i OpenCL, dziÄki czemu nawet niedroga karta graficzna pozwala znacznie przyspieszyÄ wykonywanie zadania. Warto jednak pamiÄtaÄ, Ĺźe moĹźliwoĹci zaleĹźÄ od konkretnego oprogramowania i tego czy potrafi ono wykorzystaÄ potencjaĹ karty graficznej. Zwykle wykorzystuje siÄ profesjonalne modele z serii AMD Radeon Pro lub Nvidia Quadro. Karta graficzna w komputerze â funkcje: generowanie i wyĹwietlanie obrazu wspomaganie obliczenia procesora zwiÄkszanie wydajnoĹci komputera (przyspieszanie wykonywania zadaĹ) Jak rozpoznaÄ wydajnoĹÄ i generacjÄ kart po oznaczeniach? Jak wybraÄ kartÄ graficznÄ , jak rozpoznaÄ jej wydajnoĹÄ i generacjÄ? Producenci wyszli naprzeciw mniej doĹwiadczonym klientom i wprowadzili stosowne oznaczenia, ktĂłre pozwalajÄ oszacowaÄ wydajnoĹÄ i generacjÄ danego modelu. Przede wszystkim powinniĹmy zwracaÄ uwagÄ na pierwszy czĹon liter i cyfr w nazwie danego modelu. Czasami moĹźna rĂłwnieĹź spotkaÄ siÄ z konstrukcjami z edycji specjalnych, gdzie trudniej zidentyfikowaÄ ich specyfikacjÄ. DominujÄ ce na rynku karty graficzne to karty graficzne AMD i karty graficzne NVIDIA. Karty graficzne AMD Karty graficzne AMD dzielÄ siÄ na: Radeon â modele do podstawowych zastosowaĹ Radeon RX â karta graficzna dla gracza Pierwsza cyfra odpowiada za generacjÄ (np. model Radeon RX 6800 XT jest nowszy od Radeon RX 5700 XT), natomiast kolejna za segment wydajnoĹciowy (np. model Radeon RX 6900 jest wydajniejszy od Radeon RX 6800). OprĂłcz tego w ofercie producenta znajdziemy topowe modele ze specjalnych edycji. Zwykle reprezentujÄ one najwyĹźszy segment wydajnoĹciowy, ale czasem trudno na pierwszy rzut oka zidentyfikowaÄ do ktĂłrej serii naleĹźÄ . Warto zatem dokĹadnie zapoznaÄ siÄ z ich specyfikacjÄ . Karty graficzne AMD w sklepie Karty graficzne NVIDIA Karty graficzne NVIDIA â podziaĹ: GeForce â najbardziej podstawowe modele GeForce GT â wersje ze Ĺrednio-niskiego segmentu GeForce GTX â modele gamingowe dla graczy GeForce RTX â modele gamingowe dla graczy, architektura Turing Pierwsza cyfra oznacza generacjÄ karty graficznej (np. karta graficzna Nvidia GeForce RTX 3080 jest nowsza od Nvidia GeForce RTX 2080), a kolejna jego segment wydajnoĹciowy (np. GeForce RTX 3070 jest wydajniejszy od GeForce RTX 3060 Ti). Nowa seria GeForce RTX wyróşnia siÄ dodatkowymi jednostkami RT, ktĂłre odpowiadajÄ za technologiÄ Ĺledzenia promieni w czasie rzeczywistym (Ray-tracing) i jeszcze bardziej realistycznÄ animacjÄ. CzÄĹÄ modeli dodatkowo oznaczono dopiskiem Ti, co oznacza przyspieszonÄ wersjÄ (np. GeForce RTX 2080 Ti jest wydajniejszy od zwykĹego GeForce RTX 2080). Innym oznaczeniem jest dopisek SUPER, ktĂłry takĹźe sugeruje wyĹźszÄ wydajnoĹÄ karty od jej podstawowej wersji (np. GeForce RTX 2070 SUPER jest mocniejszy od GeForce RTX 2070). Karty graficzne NVIDIA w sklepie Taktowanie rdzenia i taktowanie pamiÄci â jaka karta graficzna? Cechy âtaktowanie rdzenia” i âtaktowanie pamiÄci” warto porĂłwnywaÄ gĹĂłwnie przy kartach tej samej serii szukajÄ c modeli âpodkrÄcanych” oferujÄ cych wydajnoĹÄ nieco wyĹźszÄ niĹź standardowe karty. Modele w ktĂłrych producenci zdecydowali siÄ zwiÄkszyÄ taktowanie rdzenia i pamiÄci najczÄĹciej majÄ w nazwie produktu dodatkowe oznaczenia typu: OC, Overclocked, Superclocked, lub specjalne nazwy wskazujÄ ce na lepsze parametry karty np: AMP, DC, Lightning. WyĹźsze âtaktowanie rdzenia” i âtaktowanie pamiÄci” skutkuje nieco lepszÄ wydajnoĹciÄ w grach. Przy wyborze karty z wyĹźszymi wspĂłĹczynnikami warto zachowaÄ rozsÄ dnÄ relacjÄ pomiÄdzy lepszÄ wydajnoĹciÄ , a wyĹźszÄ cenÄ . MoĹźe siÄ okazaÄ, Ĺźe przy tej samej dopĹacie moĹźesz juĹź kupiÄ o klasÄ wyĹźszÄ kartÄ standardowÄ . Karta graficzna z technologiÄ Turbo lub Boost Wszystkie nowe karty graficzne wykorzystujÄ technologiÄ Boost, ktĂłra przy obciÄ Ĺźeniu automatycznie zwiÄksza taktowanie rdzenia graficznego, ale konieczne jest do tego zapewnienie odpowiedniego chĹodzenia. WyĹźszemu taktowaniu rdzenia i pamiÄci towarzyszy z reguĹy wydajniejsze chĹodzenie karty, dlatego podkrÄcane modele bardzo czÄsto charakteryzujÄ siÄ wiÄkszym i efektywniejszym coolerem. Karta graficzna zintegrowana, czy dedykowana? WiÄkszoĹÄ procesorĂłw dysponuje zintegrowanym ukĹadem graficznym, co pozwala obniĹźyÄ cenÄ komputera oraz jego pobĂłr energii elektrycznej. Zintegrowane ukĹady oferujÄ jednak niĹźszÄ wydajnoĹÄ i przewaĹźnie sprawdzÄ siÄ dobrze w mniej wymagajÄ cych zastosowaniach. RozwiÄ zanie to polecamy do domowych i biurowych komputerĂłw oraz laptopĂłw. Co oznacza, Ĺźe karta graficzna jest dedykowana? NajproĹciej mĂłwiÄ c jest to osobna karta rozszerzeĹ, w ktĂłrÄ zostaĹy wyposaĹźone wysokiej jakoĹci komputery i laptopy. MoĹźemy liczyÄ na duĹźo lepszÄ wydajnoĹÄ, a w przypadku komputerĂłw stacjonarnych rĂłwnieĹź na ĹatwÄ modernizacjÄ. Na ogóŠtakie konstrukcje sÄ juĹź zauwaĹźalnie droĹźsze. Karta graficzna dedykowana to dobra opcja dla graczy i entuzjastĂłw. Jak wybraÄ kartÄ graficznÄ do gier? > ChĹodzenie karty graficznej A jaka karta graficzna jeĹli zaleĹźy nam na cichej pracy komputera? Wybierzemy model karty graficznej wyposaĹźonej w chĹodzenie autorskie. Takie modele sÄ nieco droĹźsze, ale charakteryzujÄ siÄ znacznie wyĹźszÄ kulturÄ pracy. KaĹźdy producent kart graficznych posiada swoje autorskie rozwiÄ zania systemu chĹodzÄ cego. W kartach graficznych firmy ASUS jest to DirectCU, firma MSI ma Twin Frozr, a firma Gigabyte nazywa swoje chĹodzenie Windforce. Warto wybraÄ chĹodzenie autorskie, poniewaĹź róşnica w gĹoĹnoĹci pomiÄdzy standardowym coolerem zaprojektowanym przez producenta procesora graficznego (AMD lub NVIDIA) z reguĹy jest duĹźa. Co to jest chĹodzenie wodne karty graficznej? ChĹodzenie wodne znajdzie miejsce zarĂłwno w mocnym sprzÄcie, w ktĂłrym konwencjonalne wentylatory przestajÄ byÄ wystarczajÄ co wydajne, oraz w komputerach hobbystĂłw podkrÄcajÄ cych swoje procesory i karty graficzne. System chĹodzenia w komputerach znaczÄ co wpĹywa na ogĂłlnÄ wydajnoĹÄ sprzÄtu. WiÄcej o chĹodzeniu wodnym przeczytasz w Komputer z chĹodzeniem wodnym â dlaczego warto? Komputery z chĹodzeniem cieczÄ > Jaka karta graficzna do komputera? W przypadku komputerĂłw stacjonarnych kartÄ graficzna montujemy w zĹÄ czu PCI-Express x16. RozwiÄ zanie to przekĹada siÄ na ogĂłlnÄ kompatybilnoĹÄ i daje moĹźliwoĹÄ Ĺatwej modernizacji komputera, bo gdy dana karta okaĹźe siÄ zbyt sĹaba moĹźemy jÄ wymieniÄ na lepszy model. Dodatkowo moĹźemy zdecydowaÄ siÄ na poĹÄ czenia kilku kart w trybie Nvidia SLI lub AMD CrossFire. Karta graficzna, zaleĹźnie od jej wydajnoĹci, moĹźe wymagaÄ odpowiedniego mocnego zasilacza i dedykowanych kabli zasilajÄ cych. NajczÄĹciej spotykane warianty to: 6 pin â zasilanie z przewodĂłw zakoĹczonego wtyczkÄ 6-pinowÄ , 2x 6-pin â zasilanie z dwĂłch przewodĂłw zakoĹczonych wtyczkÄ 6-pinowÄ , 6+8-pin â zasilanie z dwĂłch przewodĂłw zakoĹczonych wtyczkÄ : 6- i 8-pinowÄ 2x 8-pin â zasilanie z dwĂłch przewodĂłw zakoĹczonych wtyczkÄ 8-pinowÄ . Wydajniejsze modele wymagajÄ podpiÄcia dodatkowego zasilania, najczÄĹciej 6-pin lub 8-pin â wystarczy zasilacz o mocy od 500 do 600W. W przypadku topowych kart graficznych â 6+8-pin lub 2x 8 pin â zasilacz powinien mieÄ moc od 600 do 700W. Przed wyborem karty graficznej powinniĹmy wiÄc sprawdziÄ, czy nasz zasilacz oferuje odpowiedniÄ moc i dysponuje wymaganym zestawem zĹÄ czy. SprawdĹş w poradniku Jak wybraÄ zasilacz komputerowy? Jaka karta graficzna do laptopa? TrochÄ inaczej wyglÄ da sytuacja w laptopach, bo ukĹad graficzny najczÄĹciej jest umieszczony na pĹycie gĹĂłwnej lub zamontowany jako specjalna karta rozszerzeĹ (MXM), co utrudnia lub nawet uniemoĹźliwia ewentualnÄ modernizacjÄ. ChĹodzenie i dostÄpne zĹÄ cza zaleĹźÄ natomiast juĹź od konstrukcji danego laptopa. Warto rĂłwnieĹź zwrĂłciÄ uwagÄ na wydajnoĹÄ kart dla laptopĂłw. PostÄp technologiczny pozwoliĹ opracowaÄ nowe, lepsze konstrukcje, dziÄki czemu mobilne akceleratory praktycznie dorĂłwnujÄ swoim odpowiednikom dla komputerĂłw stacjonarnych. PrzewaĹźajÄ ca wiÄkszoĹÄ gamingowych laptopĂłw wykorzystuje karty z serii NVIDIA GeForce GTX 1000, a w nowszych konstrukcjach mogÄ to byÄ juĹź modele GeForce RTX 2000. Premiera laptopĂłw z kartami GeForce RTX 3000 zaplanowana jest na poczÄ tek 2021 roku. Co jednak, gdy posiadamy kompaktowego laptopa ze zintegrowanÄ grafikÄ , a chcielibyĹmy pograÄ w nowe gry lub wykorzystaÄ akceleracjÄ GPU? RozwiÄ zaniem moĹźe byÄ stacja graficzna â tzw. zewnÄtrzna karta graficzna â w ktĂłrej montowana jest standardowa karta dla komputera PC, a caĹoĹÄ podĹÄ czamy do laptopa za pomocÄ zĹÄ cza Thunderbolt 3 40 Gb/s. Tym sposobem karta graficzna do laptopa moĹźe mieÄ takÄ samÄ wydajnoĹÄ co najmocniejszy komputer stacjonarny. Jaka karta graficzna do gier? Przy wyborze karty graficznej do grania przede wszystkim powinniĹmy zwrĂłciÄ uwagÄ na wydajnoĹÄ. Karta graficzna do Fortnite, PlayerUnknownâs Battlegrounds (PUBG) czy CS: GO moĹźe naleĹźeÄ do podstawowych modeli. Sprawdzi siÄ np. GeForce GTX 1650 lub Radeon RX 570. W przypadku bardziej wymagajÄ cych tytuĹĂłw, warto zaopatrzyÄ siÄ w coĹ wydajniejszego, np. GeForce RTX 2060, Nvidia GeForce RTX 2070 lub AMD Radeon RX 5600 XT czy AMD Radeon RX 5700. Najmocniejsze karty graficzne obecnie to ukĹady z serii GeForce RTX 3000 (np. Nvidia GeForce RTX 3070, NVIDIA GeForce RTX 3080) oraz karty AMD Radeon RX 6000 ( AMD Radeon RX 6900 XT AMD Radeon RX 6800 XT). Karta graficzna MSI GeForce RTX 3090 VENTUS 3X 24GB OC Bardzo waĹźnÄ kwestiÄ jest rĂłwnieĹź typ i pojemnoĹÄ pamiÄci wideo. Do grania w jakoĹci Full HD wystarczy podstawowy model z 2 lub 4 GB pamiÄci GDDR5 128-bit, Do wyĹźszych rozdzielczoĹci najlepiej wybraÄ 4 lub 6 GB pamiÄci GDDR5 192 lub 256-bit, W przypadku rozdzielczoĹci 4K lub rozgrywki na kilku poĹÄ czonych ekranach, nie obejdzie siÄ bez topowych kart, ktĂłre majÄ co najmniej 8 GB pamiÄci GDDR5 â GDDR5X 256-bit, 384-bit lub HBM/HBM2 2048-/4096-bit. Zobacz rĂłwnieĹź poradnik JakÄ kartÄ graficznÄ do komputera gamingowego wybraÄ? Profesjonalne karty graficzne Karta graficzna jest rĂłwnieĹź waĹźnym elementem stacji roboczych do profesjonalnych zastosowaĹ. Akcelerator graficzny pozwala bowiem odciÄ ĹźyÄ procesor i znacznie przyspieszyÄ wykonywanie niektĂłrych zadaĹ â np. edycjÄ wideo, renderowanie czy modelowanie 3D. Warto jednak zauwaĹźyÄ, Ĺźe dane oprogramowanie musi byÄ przystosowane do akceleracji GPU. Z myĹlÄ o takich zastosowaniach przygotowano profesjonalne modele z linii NVIDIA Quadro i AMD Radeon Pro â konstrukcje te Ĺwietnie sprawdzÄ siÄ jako karta graficzna do renderowania czy karta graficzna do AutoCAD. Osobnym tematem sÄ karty graficzne do kopania kryptowalut â zwykle oznaczono je dopiskiem Mining lub MI. PrzewaĹźnie sÄ to specjalne przystosowane konstrukcje, ktĂłre zoptymalizowano pod kÄ tem dĹugotrwaĹej pracy i moĹźliwie niskiej ceny zakupu. CzÄsto bazujÄ one na standardowych modelach, ale cechujÄ siÄ mniejszÄ liczbÄ lub w ogĂłle brakiem wyjĹÄ wideo. ZwykĹy model rĂłwnieĹź sprawdzi siÄ jako karta graficzna do kopania kryptowalut. Podsumowanie Rynek kart graficznych jest urozmaicony i bardzo dynamiczny. Przed zakupem nowego modelu, lub nowego komputera i laptopa, warto zrobiÄ rozeznanie aby okreĹliÄ jaka konstrukcja bÄdzie odpowiednia do naszych zastosowaĹ. Pozwoli to nie tylko wybraÄ moĹźliwie najlepszÄ propozycjÄ, ale teĹź uniknÄ Ä ewentualnych problemĂłw z dziaĹaniem sprzÄtu. Polecane karty graficzne do 1000 zĹ Polecane karty graficzne do 2000 zĹ Polecane karty graficzne do 4000 zĹ Najwydajniejsze karty graficzne powyĹźej 4000 zĹ MogÄ CiÄ zainteresowaÄ: Jaka karta graficzna do komputera gamingowego? Poradnik Jak testowaÄ kartÄ graficznÄ ? Jaka karta graficzna do 1000 zĹ? Ranking
2. Ręczna aktualizacja sterowników NVIDIA w systemie Windows 10. Jeśli nasza karta graficzna NVIDIA nas nie wykryje, przystąpimy do aktualizacji sterowników. Krok 1 Najpierw przystąpimy do odinstalowania sterowników. Aby to zrobić, przechodzimy do ikony Windows 10, prawym przyciskiem i klikamy „Ustawienia”. Krok 2 Kliknij opcję Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! Afcht 09 Mar 2009 20:16 1794 #1 09 Mar 2009 20:16 Afcht Afcht Level 30 #1 09 Mar 2009 20:16 Witam,posiadam kartę ASUS AH3450 ją do oglądania filmów FULL HD. Po zainstalowaniu sterowników jakie producent dołącza do zestawu pojawiają sie problemy: 1 Nie mogę uruchomić ''CCC'' bo wyskakuje błąd ja na foto. 2 Nie da sie oglądać filmów full hd bo sie tną okropnie lepiej działały z kartą Fx5200. 3. W 3D Mark2001 zyskałem nie wiele więcej punktów ale w czasie testowania tnie sie jak głupi po prostu w nie którym miejscach jest pokaz slajdów w Fx przechodziło wszystko płynie. Teraz mam pytanie gdzie mogę znaleść odpowiednie sterowniki żeby to wszystko prawidłowa działo. #2 09 Mar 2009 20:55 Driver- Driver- Level 38 #2 09 Mar 2009 20:55 Stery masz na stronie ASUS'a General Download → Select Product → Graphic Card, Select series → ATI series, Select model → AH3450 → Search. VGA → Download from "Global". Ściągasz, rozpakowujesz i naprzód. #3 09 Mar 2009 22:06 Afcht Afcht Level 30 #3 09 Mar 2009 22:06 Zaraz wypróbuję,mam pytanie co on zrobił w tej grze że mu tak płynie chodzi na HD3450? #4 09 Mar 2009 22:15 jankolo jankolo Meritorious for the #5 09 Mar 2009 23:58 Afcht Afcht Level 30 #5 09 Mar 2009 23:58 jankolo wrote: Niestety wtedy kiedy pisałem post to nie udało się załadować na serwer elektroda więc załodowałem na inny. jankolo- Dobrze wiem jak wkleja się zdjęcia Czy ktoś wie na moje pytanie? #6 10 Mar 2009 00:25 iron64 iron64 Level 41 #6 10 Mar 2009 00:25 Poprzednie sterowniki usunięte i posprzątane po nich? #7 10 Mar 2009 01:55 Afcht Afcht Level 30 #7 10 Mar 2009 01:55 Tak,nawed system nowy postawilem i dalej to samo. Windows xp sp3 #8 10 Mar 2009 13:47 Afcht Afcht Level 30 #8 10 Mar 2009 13:47 Kończą mi sie nerwy nie działają żadne sterowniki wyskakuje mi przy instalacji ''setup did not find a driver compatible with your current hardware or operating system'' co mam robić? #9 10 Mar 2009 14:54 tronics tronics Level 38 #9 10 Mar 2009 14:54 Do kart HD2k/3k na AGP stosuje się hotfixy agp, a nie sterowniki prosto z downloadu. Poszukaj w google ati agp hotfix i znajdziesz odpowiedni plik w supporcie na stronce. Jeśli chodzi o filmy to z tym może być ciężko, zobacz czy z PowerDVD i "używaj akceleracji sprzętowej AVIVO" jest to samo.Problem jest taki ze Laptop korzysta z grafiki Intel zamiast z GeForce. Parametry laptopa to: Intel (R) Core (TM) i3-2350M CUP @ 2.30GHz. RAM: 6GB. 64-bitowy system operacyjny Win7 Professional. Karta graficzna dedykowana: NIVIDA GeForce GT630M. Gdy włączam grę i klikam żeby uruchomił z procesorem graficznym NIVIDA to nic nie daje.
Coraz więcej laptopów, które dostępne są na rynku, wyposażone są w dwie karty graficzne – dedykowaną i zintegrowaną. Rozwiązanie to pozytywnie wpływa na wydajność, którą oferuje sprzęt, a jednocześnie jest niezwykle praktyczne. Jak wybrać jednak z którego GPU chcemy obecnie korzystać?Dwie karty graficzne w laptopie – jak to działa?Czy dwie karty graficzne mają sens?Jak zmienić kartę graficzną w laptopie dla wybranej aplikacji?Przełączanie kart w AMD CatalystPrzełączanie kart w NVidia Control PanelJak ustawić domyślną kartę graficzną Windows 10?Przełączanie kart graficznych w laptopieDwie karty graficzne w laptopie – jak to działa?Podstawową informacją, którą należy wiedzieć o sprzęcie z kartą zintegrowaną i dedykowaną, jest to, że dwie karty graficzne w laptopie nie działają jednocześnie. Karta dedykowana działa jedynie, gdy:Pracujemy z wymagającym dużej mocy oprogramowaniem,Gramy w gry,Oglądamy filmy wysokiej jakości,Zajmujemy się obróbką grafiki,W innych przypadkach komputer wykorzystuje słabszą i mniej energiożerną kartę zintegrowaną. Rozwiązanie to najłatwiej porównać do skrzyni biegów – przyśpieszając, musimy wrzucić w pewnym momencie wyższy bieg, czyli w przypadku sprzętu – przełączyć się na mocniejszą kartę dwie karty graficzne mają sens?Wiele osób zastanawiać się może, po co w sprzęcie przenośnym montować dodatkowe karty graficzne, które zwiększają wagę urządzenia. Powód jest prosty – karta zintegrowana i dedykowana razem w laptopie sprawiają, że urządzenie staje się bardziej uniwersalne i możemy wykorzystać je w kilku różnych zintegrowana będzie przydatna, gdy chcemy pracować, odpisywać na maile lub robić inne proste czynności z daleka od gniazdka, ponieważ pobiera ona znacznie mniej energii, a co za tym idzie, praca na jednym ładowaniu trwać będzie drugiej strony, dzięki dedykowanemu GPU, jeśli mamy ochotę, możemy z laptopa, który ma 2 karty graficzne korzystać jak z domowego centrum rozrywki bez znacznej utraty wydajności w porównaniu do komputera PC. Docenić należy także to, że pracując na karcie zintegrowanej laptop, będzie pracował ciszej, a dodatkowo będzie generował mniejsze temperatury, co może mieć znaczenie dla osób pracujących z laptopem na zmienić kartę graficzną w laptopie dla wybranej aplikacji?Co ciekawe nie jesteśmy zmuszeni do dostosowywania się do automatycznie dobranych przez system ustawień i w razie potrzeby możemy samodzielnie zdecydować, z którego układu chcemy korzystać. Jest to niezwykle proste, ale należy pamiętać, że wybór karty graficznej będzie się różnić zależnie od jej kart w AMD CatalystW przypadku kart AMD musimy uruchomić aplikację producenta – AMD Catalyst Control Center, gdzie następnie przechodzimy do zakładki „Zasilanie”. W menu, które się rozwinie, należy wybrać opcję „Monitor przełączania grafiki dla aplikacji”. W ten sposób pojawi nam się możliwość wybrania tego, która karta graficzna ma być docelowym GPU dla danej aplikacji. Wybór zatwierdzamy przyciskiem „Zastosuj”.Przełączanie kart w NVidia Control PanelPodobnie postąpić należy w przypadku kart wyprodukowanych przez firmę NVIDIA. Uruchomić w tym przypadku należy aplikacje NVIDIA Control Panel. Tam w menu znajdującym się z lewej strony programu wybieramy zakładkę „Manage 3D Settings”, a następnie „Program Settings”. Tam możemy wybrać aplikację z menu rozwijanego i zdecydować czy chcemy, żeby wykorzystywała ona zintegrowaną kartę graficzną, czy kartę NVIDIA o dużej ustawić domyślną kartę graficzną Windows 10?W podobny sposób możemy zdecydować się, która karta graficzna ma być kartą główną. Jak przy wyborze karty dla konkretnej aplikacji ponownie musimy uruchomić program odpowiedzialny za ustawienia karty graficznej. Tym razem w przypadku aplikacji przeznaczonej dla kart AMD należy wybrać zakładkę „Zasilanie”, a następnie „PowerPlay”. W prawej stronie okna aplikacji zobaczymy informacje o tym, która karta graficzna jest podstawowym GPU zależnie od tego, czy laptop podłączony jest do prądu czy też nie. Możemy ustawienie to dowolnie przypadku kart GeForce proces ten jest równie prosty. Ponownie musimy wybrać zakładkę „Manage 3D Settings”, ale w przypadku wybrania karty preferowanej zostajemy w zakładce „Global Settings”, gdzie wyboru karty dokonać możemy w prosty sposób za pomocą rozwijanego kart graficznych w laptopieDwie karty graficzne w laptopie sprawiają, że staje się on urządzeniem wielofunkcyjnym łączącym ze sobą mobilność sprzętu przenośnego, ale także wydajność przeważnie mocniejszych komputerów z normalnymi kartami graficznymi. Obsługa sprzętu wyposażonego w dwa GPU jest niezwykle prosta i w wielu przypadkach nie musimy się nawet zastanawiać, na której karcie graficznej obecnie działamy. Wszystkie decyzje podejmowane są bez naszej wiedzy.
RTX 2050 Max-Q. GTX 1060 Mobile. Graphics 384SP Mobile. GTX 1650 Ti Mobile. GTX 980 Mobile. 2023 Ta lista jest kompilacją prawie wszystkich kart graficznych wydanych w ciągu ostatnich dziesięciu lat. Odejmij zgadywankę od decyzji o zakupie nowej karty graficznej. Na tej porównawczej liście porównawczej GPU oceniamy wszystkie karty
Nowe karty graficzne Intel Arc mogą stanowić realną konkurencję dla produktów Nvidii i AMD. Wszyscy oczekujemy premiery nowych układów, która nastąpi już niedługo - na początku 2022. Z tego względu postanowiliśmy zebrać wszystko, co do tej pory już wiemy. [Aktualizacja Intel, udostępnił na swoim kanale na platformie YouTube kolejny film prezentujący możliwości nadchodzących kart graficznych Arc. Po raz kolejny niebiescy prezentują wydajność modelu A750 w wersji Limited Edition. Po raz kolejny w rolę prezentera został postawiony Ryan Shrout, o którym to wspominaliśmy przy ostatnich aktualizacjach. Ryan twierdzi, że wszystkie karty graficzne Intel Arc, w tym i testowany egzemplarz, będą obsługiwać VRR (zmienna częstotliwość odświeżania) zgodnie z oficjalnym standardem VESA. Dodatkowo układy maja obsługiwać technologię Adaptive Sync która zapewnia płynną liczbę klatek na sekundę, synchronizując częstotliwość odświeżania monitora z generowanymi FPS. Podczas prezentacji wykorzystano grę Death Stranding Directors Cut, która działa w 80-100 FPS w rozdzielczości 2560 x 1440 (dla VRR) badź 3440x1440 (przy testach HDR). Zobacz również:Najlepsze antywirusy na Maca [RANKING 2022]Intel Optane przechodzi do historii. To koniec markiArc A380 przetestowany. Intel proponuje coś dziwnego Na koniec otrzymaliśmy informacje na temat złącza HDMI w kartach Intel Arc. Ryan twierdzi, że wszystkie układy Arc dla komputerów stacjonarnych jak i laptopów obsługują standard HDMI Jednak aby uzyskać dostęp do HDMI partnerzy mogą zintegrować układ PCON i przekonwertować wyjście DisplayPort na HDMI Obie karty graficzne Intel Arc A770 i Arc A750 Limited Edition obsługują standard HDMI dzięki temu rozwiązaniu. [Aktualizacja Co by nie mówić ostatni tydzień należał do Intela i układów ARC. Niebiescy widać starają się poprawić swój wizerunek, nadszarpnięty przez opóźnienie premiery dedykowanych kart graficznych, czy okrojoną premierę na rynku OEM w Chinach. Już na początku tygodnia Tom Petersen i Ryan Shrout, zaprezentowali działająca kartę Intel ARC A750, na kanale GamerNexus. Dodatkowo udzielili sporo dodatkowych informacji o budowie, wydajności układów ARC Alchemist. Fot. GamerNexus Fot. GamerNexus Niedługo później na platformie Youtube został umieszczony już oficjalna prezentacja karty A750, bezpośrednio na kanale Intela. Nadchodząca karta graficzna powinna osiągnąć w większości tytułów wydajność przewyższającą GeForca RTX 3060. co prawda niebiescy ograniczyli się do prezentacji wyników tylko z 5 tytułów takich jak F1 2021, Cyberpunk 2077, Control, Borderlands i Fortnite w rozdzielczości 2560x1440. Nie trudno odnieść wrażenia że dużo jednak zależy od ustawień, ponieważ w samym teście w Cyberpunk 2077, gra była testowana na detalach wysokich z wyłączonym Ray Tracingiem. Jakby tego było mało Tom Petersen i Ryan Shrout, w piątkowy wieczór gościli również podczas podcastu The Wan Show na kanale LinusTechTips. Podczas audycji po raz pierwszy została zaprezentowana karta graficzna ARC A770. Ten topowy model dla serii Alchemist podobnie jak model A750, został wyposażony w dwie wtyczki zasilające 8-pinowa i 6-pinową. Za chłodzenie modelu odpowiadają tylko dwa wentylatory. Niestety, nie została ujawniona specyfikacja karty. Jednak według wcześniejszych doniesień model ten powinien otrzymać 32 rdzenie XE oraz 16 GB pamięci GDDR6. fot. LinusTechTips fot. LinusTechTips Jednak dla nas najważniejsza jest deklaracja, która złożyli obaj wyżej wymienieni pracownicy Intela, że premiera kart graficznych Intel Arc nastąpi szybciej niż się spodziewamy. Cóż pozostaje trzymać za to kciuki [Aktualizacja Choć premiera układów Intel Arc Alchemist miała miejsce w ubiegły czwartek dopiero dziś zeszło embargo na recenzje tych jednostek. Pamiętajmy jednak że debiut układów niebieskich nastąpił tylko na rynku chińskich, oraz dotyczy jedynie modelu A380. Pierwsze recenzje skupiają się na modelu A380 Photon od GUNNIR, który jest partnerem Intela na azjatyckim runku, oraz jest jak dotąd jest jedyną autorską konstrukcją opartą na tym procesorze graficznym. Pierwsze wyniki dostarczył Shenmedounengce, który przetestował kartę na systemie opartym o procesor Intel Core i5-12400, płytą główną B660 i pamięcią DDR4. Karta została porównana z kartami graficznymi NVIDIA RTX 3050, GTX 1650 i AMD RX 6500XT oraz RX 6400. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) A380 oferuje pełny procesor graficzny ACM-G11 z 8 rdzeniami Xe oraz 6 GB pamięci GDDR6 komunikującej się poprzez 96-bitową magistralę . Taktowania rdzenia wynosi nawet 2,45 GHz (w trybie boost), a pamięć została skonfigurowana by osiągać przepustowość 15,5 Gbps. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) W testach syntetycznych 3DMark, układ intela jest szybszy od kart graficznych posiadających 4 GB pamięci VRAM, przegrywając tylko z RTX 3050. Dużo gorzej wygląda sytuacja gdy weźmiemy pod uwagę gry. Autor sprawdził układ w takich tytułach jak League of Legends, PUBG, GTA5, Tom Raider, Forza Horizon 5 i Red Dead Redemption II. Niestety, w tym przypadku A380 przegrywa nawet z Radeonem RX 6400 czy GTX 1650. Kolejne wyniki pochodzą z kanału Benchmark Lab, który udostępnił krótka video prezentację zarówno na portalu Bilibili jak i na Youtube. Testowa konfiguracja wykorzystywała 10-rdzeniowy procesor Intela Core i9-10900K oraz 32 GB pamięci DDR4. W tym przypadku karta Arc A380, była szybsza od GTX 1650 produkcji MSI w każdym testowanym tytule. Jak widać dużo w tym momencie zależy jak widać od ustawień oraz konfiguracji całego zestawu. Gra Achlemist A380 MSI GTX 1650 Elden Ring ust, śred, 43 40 Microsfot Flight Simulator ust, śred, 46 40 Wiedzin 3 ust, wysokie 75 65 World of Warcraft ust, max 73 70 CP2077 ust, niskie 45 41 Hitman 3 ust, śred 58 51 Read Dead Redemtion ust, śred, 56 49 God of War ust, śred, 63 56 Fortnite ust wysokie 71 65 Horizon zero dawn, ust, oryg, 56 51 Dane prezentowane w tabeli na podstawie wyników uzyskanych przez Benchmark Lab O sukcesie układów A380 zdecyduje i tak cena. Mimo że sugerowana przez Intela ma wynosić 1030 Juanów (ok. 700zł), to wstępne informacje wskazują, że będzie ostatecznie sporo wyższa. [Aktualizacja Intel ogłosił, że technologia XeSS nie zadebiutuje z mobilnymi procesorami graficznymi z serii Arc 3, które zostały wprowadzone na rynek 30 marca, ale zamiast tego wraz z seriami Arc 5 i Arc 7. Te powinny zadebiutować na początku lata (przełom maja i czerwca). Ogłoszono że w dniu premiery wsparcie otrzyma kilka tytułów AAA i zostaną one zoptymalizowane pod kątem lista gier prezentuje się następująco:„Ghostwire: Tokyo”, „Death Stranding”, „Anvil”, „Hitman III”, „GRID Legends”. Jak już wspominaliśmy w tym artykule, w przeciwieństwie do rozwiązania FSR od AMD - Intel w XeSS wykorzystuje głębokie uczenie wspieranie przez sztuczną inteligencję. Ma to umożliwić przywrócenie szczegółów w przeskalowanym obrazie gry, która jest renderowana w rozdzielczości niższej niż ta, do której jest zdolny Twój wyświetlacz. W tym celu wykorzystywane są rdzenie XMX (Xe Matrix Extensions) w układzie krzemowym,odpowiedzialnym za przyspieszanie tworzenia i trenowania sieci neuronowych w ramach głębokiego uczenia. W architekturze Xe HPG każdy rdzeń Xe otrzymuje dedykowaną jednostkę XMX — i mimo innej budowy ich działanie można porównać do rdzeni Tensor w procesorach graficznych NVIDIA RTX. [Aktualizacja Według kanału Moore's Law Is Dead, Intel przesunie premierę nowej linii dedykowanych procesorów graficznych Arc Alchemist na drugi kwartał tego roku. Pierwotny harmonogram zakładał wypuszczenie układów w pierwszej połowie 2022 roku, a za możliwą datę podawano przełom marca i kwietnia. Intel planuje opóźnić wydanie linii Arc Alchemist Graphics na drugą połowę roku, ponieważ chce dopracować swoje sterowniki. zdj. MLID/Youtube [Aktualizacja W bazie benchmarku CrossMark użytkowanik APISAK znalazł wyniki osiągnięte na laptopie wyposażonym w układ graniczny Intel Arc A370M Graphics, a swoim odkryciem podzielił się na portalu Twitter. Oprogramowanie firmy BAPCo umożliwia testowanie sprzętu niezależnie od posiadanej platformy czy systemu operacyjnego (dostępne wersje na Windows, iOS or macOS i nawet Android) i w łatwy sposób na ich porównanie. zdj. BAPCo || Twitter:APISAK Choć na podstawie osiągniętego rezultatu ciężko wskazać jak w grach spisze się układ graficzny Intela, to potwierdza, że dane chipy znajdują się już producentów i trwają już wewnętrzne testy. Wydajność konstrukcji w całości opartej o produkty Intela wypada, identycznie jak laptopa wyposażonego w układ graficzny Nvidii RTX 3060 oraz procesor i7 12 generacji. Jest to dobra wiadomość, biorąc pod uwagę, że sterownik dla platformy ARC, wciąż znajdują się w fazie testów. Według wcześniejszych doniesień premiery Inte Arc dla urządzeń mobilnych możemy spodziewać się w drugiej połowie tego roku. [Aktualizacja Użytkownik 9550pro, na swoim profilu na portalu Twitter, udostępnił slajd przedstawiający plany Intela dotyczące procesorów graficznych DG2 do laptopów. Na slajdzie zatytułowanym „Konfiguracja pamięci graficznej DG2” możemy zauważyć aż pięć różnych modeli układów przeznaczonych do laptopów. @9550pro Topowym modelem pozostaje SKU1 z 512 jednostkami wykonawczymi(EU), który zostanie sparowany z ośmioma modułami pamięci GDDR6 o łącznej pojemności 16 GB. Ta miałaby komunikować się z rdzeniem przez 256-bitową szynę z prędkością 16 Gb/s (pełna przepustowość 512 GB/s). Warto zaznaczyć że użyte moduły GDDR6 są identyczne jak mającym niedługo zadebiutować mobilnym wariancie RTX 3080 TI. Co więcej, w końcu mamy potwierdzenie słabszej wersji układu wyposażonej w 384 EU o nazwie SKU2. Ten wariant ma zostać wyposażony w 12 GB pamięci GDDR6 oraz 192-bitową szynę pamięci. Moduły zachowałyby taką samą prędkość jak w topowym modelu, co przełożyłoby się na maksymalną przepustowość wynoszącą 384 GB/s. Intel ARC Mobile „SKU3” to model oparty na 256EU z 8 GB pamięci GDDR6 i 128-bitową magistralą pamięci. Miałby również zostać wyposażony w pamięć o prędkości 16 Gb/s, co oznaczałoby , że przepustowość wynosiłaby do 256 GB/s. Wreszcie, SKU4 i SKU5, oparte na GPU DG2-128EU, oba wyposażone w 4 GB pamięci GDDR6 i 64-bitową magistralę. Prędkość pamięci byłaby ograniczona do 14 Gb/s, co oznacza, że maksymalna przepustowość osiągnęłaby 112 GB/s. Slajd ten poniekąd potwierdza możliwe konfiguracje układów Intel ARC Alchemist. Mimo że dotyczy wersji mobilnych, nie jest powiedziana że podobnych wariantów nie doczekamy się również przeznaczonych dla komputerów stacjonarnych. Wszystko wskazuje że w przypadku laptopów nie doczekamy się wariantu wyposażonego w 448 EU. [Aktualizacja Jak się okazuje, udostępniony niedawno sterownik testowy który Intel przypadkowo opublikował na oficjalnej stronie internetowej, zawiera więcej informacji niż można było przypuszczać. Zawiera on nie tylko identyfikatory niewydanego sprzętu. Jak podają redaktorzy serwisu VideoCardz, którzy otrzymali anonimową wskazówkę, pliki SYS ujawniają nazwy niepublikowanych procesorów graficznych Intel Xe-HPG, znanych jako Arc Alchemist. Sterownik zawiera dane dotyczące 4 modeli, w tym dwóch do komputerów stacjonarnych i kolejnych dwóch do urządzeń mobilnych: Intel Arc A380. Intel Arc A350. Intel Arc A370M. Intel Arc A350M. Prawdopodobnie po raz pierwszy dowiadujemy się rzeczywistych nazw nadchodzących kart graficznych od Intela, a informacje te pochodzą bezpośrednio od producenta. zdjęcie rdzeni DG2 udostępnione przez Moore’s Law is Dead Najprawdopodobniej nie jest to pełna lista modeli planowanych w serii Arc Alchemist. Poprzednie przecieki sugerowały, że może istnieć aż 5 różnych wariantów procesorów graficznych DG2, różniących się liczbą rdzeni i konfiguracją pamięci. Układy Arc A380 bazujące na rdzeniu DG2-128EU mają rzekomo oferować wydajność GeForce GTX 1650 SUPER przy taktowaniu 2,45 GHz. Model miałby być wyposażony w 6 GB pamięci GDDR6, więc prawdopodobnie nie jest to flagowa konstrukcja, która podobno ma być wyposażona w 16 GB. Karta A350 może być najtańszą konstrukcją Intela przeznaczoną do komputerów biurowych czy stacji roboczych. Model ten może oferować 96 EU i 4 GB pamięci GDDR6. Można by się domyślać, że A3XX powinien być wydajnościowym odpowiednikiem CPU Core i3. Możliwe, że planowane są również mocniejsze warianty jak A5XX, A7XX i A9XX. [Aktualizacja Intel za pomocą swojego konta na Twitterze udostępnił grafikę, na podstawie której mamy odgadnąć nazwę piątej generacji układów Alchemist. Tak mocno wybiegające w przyszłość plany świadczą o tym jak mocno firma wierzy w nowy produkt. Jak myślicie, biorąc pod uwagę nazewnictwo pochodzące z fantastyki, jak będzie nazywał się nadchodzący układ niebieskich? You’ve heard the codenames Alchemist, Battlemage, Celestial, and Druid, but what about E? What do YOU think it could be? #IntelArc Intel Graphics (@IntelGraphics) October 19, 2021 Czy Układy Arc będą “kopać” kryptowaluty ? Przy obecnych niedoborach GPU po stronie AMD i Nvidii, napędzanych częściowo przez górników kryptowalut, ludzie chcą wiedzieć, czy procesory graficzne Arc Intela napotkają podobne trudności. Biorąc pod uwagę korzenie architektury Xe HP/HPC w centrach danych (uczenie maszynowe, obliczenia o wysokiej wydajności itp.), Intel prawdopodobnie przynajmniej przyjrzał się możliwościom kart przy wydobyciu kryptowalut. Publicznie Intel dopiero ostatnio ogłosił, że nie zamierza blokować żadnych dodatkowych algorytmów. Sława te padły od Raja Koduri, głównego architekta układów graficznych niebieskich, w udzielonym ostatnio wywiadzie. Ogólnie rzecz biorąc, Xe może dobrze radzić sobie w “kopaniu”. Jednak nie moc samego układu jest w tym wypadku najważniejsza, ponieważ najpopularniejsze algorytmy wykorzystywane do wydobycia za pomocą GPU (głównie Ethash, ale także Octopus i Kawpow) swoją wydajność opierają się prawie wyłącznie na przepustowości pamięci. Na przykład najszybsze procesory graficzne Intel Arc prawdopodobnie będą korzystać z 16 GB (może 8 GB) pamięci GDDR6 z 256-bitowym interfejsem. Dałoby to podobną przepustowość jak w przypadku AMD RX 6800/6800 XT/6900 XT, a także Nvidii RTX 3060 Ti/3070. To z kolei doprowadziłoby do wydajności około 60 MH/s przy wydobyciu Ethereum. Intel prawdopodobnie nie zamierza używać szybszych ale i dużo droższych modułów GDDR6X. Nie jest jednak wykluczone, że układy ARC mogą mieć też inne funkcje, które zwiększą wydajność kopania. Karty Nvidii posiadają pamięć taktowaną 14 Gbps w RTX 3060 Ti i RTX 3070, i dzięki czemu (zanim pojawiły się modele LHR) potrafiły osiągnąć około 61-62 MH/s. AMD ma szybszą pamięć 16 Gbps, a po dostrojeniu parametrów osiągamy 65 MH/s. Realistycznie rzecz biorąc, możemy się spodziewać, że mniej więcej taki poziom osiągnie najszybszy GPU Arc. Biorąc pod uwagę, niestabilność na rynku kryptowalut oraz fakt że procesory graficzne Arc nie pojawią się nawet na początku 2022 r.,jest mało prawdopodobne, aby wydajność kopania była nadrzędnym priorytetem dla Intela w fazie projektowania układów. Ethereum jest obecnie zdecydowanie najbardziej opłacalną “monetą” do kopania z wykorzystaniem GPU. Przyjmuje się, że reprezentuje ona ponad 90% mocy GPU wykorzystywanych do kopania na świecie. W Ethereum nastąpi zmiana schematu działania. Z “dowodu pracy” (ang. Proof of Work), system przejdzie na dowód stawki (ang. Proof of Stake). Oznacza, że nie będzie już więcej możliwości wydobywania waluty z wykorzystaniem GPU. W tym wypadku budowanie GPU wokół wydobywania Ethereum byłoby złym pomysłem. W najlepszym (lub najgorszym przypadku, w zależności od perspektywy), przewidujemy, że wydajność kopania będzie z grubsza dorównywać procesorom graficznym AMD Navi 21 i Nvidia GA104. Oprogramowanie do wydobywania prawdopodobnie będzie jednak wymagało poważnych aktualizacji i poprawek sterowników, aby nawet działać poprawnie na przyszłych procesorach graficznych. Dla przykładu próby wydobycia za pomocą układu Xe DG1 kończą się niepowodzeniem. Większość oprogramowania nawet nie wykryła „zgodnego” procesora graficznego. W momencie premiery spodziewałbym się, że procesory graficzne Arc będą w podobnej sytuacji, ale będziemy musieli zobaczyć, jak sprawy ukształtują się z biegiem czasu. [Aktualizacja Po raz kolejny nowymi informacjami o kartach graficznych Intel podzielił się kanał Moore’s Law is Dead . W udostępnionym na platformie Youtube filmie zostały zaprezentowane nowe rendery prezentujące wygląd układów Arc. Referencyjna konstrukcja posiadałaby by dwa delikatnie podświetlone wentylatory oraz wzorem RTX 3000, koniec radiatora zapewniałby bezpośredni przepływ powietrza. Do zasilania będziemy potrzebować dwóch przewodów 8-pin oraz 6-pin. Taka konfiguracja pozwoliłaby na dostarczenie 225 W mocy (300 W licząc złącze PCIe) dla karty. zdj. MLID zdj. MLID zdj. MLID zdj. MLID Choć autor w filmie wspomina, że premiera układów Arc Alchemist może nastąpić w pierwszym kwartale 2022 roku, to dotyczyć ma ona układów mobilnych, a na wersje do komputerów osobistych będziemy musieli poczekać do drugiego kwartału. Jednak według Greymon55 jest to trochę za późno i premiery należało by oczekiwać wcześniej. Q2....I feel a little late.— Greymon55 (@greymon55) October 2, 2021 Wciąż nie mamy informacji jak będą nazywać się najwydajniejsze układu Alder Lake. Najnowsze doniesienia zakładają przyjęcie przez Intela jednego z dwóch schematów. Arc a512 bądź Arc a700, obie nazwy dotyczyły by tego samego układu DG2-512 GPU, ale to właśnie 2gi wariant miałby wskazywać bezpośrednią konkurencję w postaci RTX 3070, RX 6700 XT. [Aktualizacja Dzięki wywiadowi, który udzielił Raja Koduri japońskiemu serwisowi ASCII, dowiedzieliśmy się, że Intel współpracuje już z firmami zewnętrznymi w celu przygotowania nowych kart Alchemist dostępnych na premierę. Na chwilę obecną mamy potwierdzenie, że swoje wersje opracowuje ASUS, Gigabyte oraz MSI choć można się spodziewać, że do tego grona dołączą również i inni producenci. Dzięki kanałowi Moore’s Law is Dead na platformie YouTube dowiedzieliśmy się, że Intel może wypuścić aż trzy modele układów Achemist. Najmocniejszy którego wydajność miała by dorównywać RTX 3070 dysponowałby 512 rdzeniami EU pracującymi z częstotliwością powyżej 2,2 GHz oraz byłby wyposażony w 16 GB pamięci GDRR6 komunikujących się poprzez 256-bitową szynę. Drugi model miałby konkurować z RTX 3060 i dysponowałby 384 bądź 448 rdzeniami EU. Karta ta pozostaje wciąż w fazie testów i jej specyfikacja nie jest do końca określona. Intel przygotowuje również wersję budżetową kart Alchemist. Ten dysponujący 128 rdzeniami EU i pobierający zaledwie 75 W układ miałaby konkurować z GTX 1650 Super. Choć w filmie autor wspomina o wariantach 4 bądź 8 GB to na portalu Chiphell pojawiły się mocno zamazane zdjęcia pokazujące wersję wyposażoną w 6 GB pamięci. Poznaliśmy też specyfikacje nazewnictwa oraz wytyczne do których muszą stosować się producenci przy umieszczaniu informacji na opakowaniu produktu. Dzięki temu wiemy, że wszystkie układy należące do rodziny Alchemist będą nosiły nazwę Arc a#. Można przypuszczać, że Intel zostanie przy tym nazewnictwie dla wszystkich swoich kart graficznych, co na pewno ułatwi ich identyfikację. Idąc tym tropem następcy oparci na rdzeniach Battlemange nosiliby oznaczenie b#, Celestial c# oraz Druid d#. Prawdopodobnie numer modelu będzie odnosił się do ilości rdzeni EU. Karty graficzne Intel Arc – wszystko, co już wiemy Intel Arc, nowa marka na rynku kart graficznych, która ma konkurować z rozwiązaniami dostarczanymi przez Nvidia i AMD. Wszystkie szczegóły o nadchodzących układach oraz czego można się po nich spodziewać dowiedzieliśmy się za pomocą udostępnionego na stronie filmu z zapowiedzią. Nie została zorganizowana huczna konferencja jak ma to w sowim zwyczaju robić konkurencja. Pytanie brzmi, czego powinniśmy oczekiwać od tego giganta technologicznego? Czy naprawdę będzie w stanie konkurować z niezwykle popularnymi i wydajnymi kartami Nvidia serii RTX 3000 i AMD Radeon’ami RX 6000? Postanowiliśmy podsumować wszystkie najnowsze plotki i oficjalne doniesienia o układach Intel Arc. Co to jest Intel Arc? Intel Arc to nowa marka kart graficznych oraz technologii związanych generowaniem obrazu od Intela. Jak twierdzi producent, obejmie ona wiele generacji i to nie tylko sprzętu, ale także oprogramowania i usług. Intel nie podał jeszcze wszystkich szczegółów i nie wiemy dokładnie co to może oznaczać. Prawdopodobnie mogą to być rozwiązania zbliżone do tych oferowanych przez Nvidię, która nie tylko produkuje karty graficzne, ale także oprogramowanie. Usługi takie jak Nvidia Broadcast, które wykorzystuje możliwości kart graficznych czy oparty na chmurze serwis gamingowy GeForce Now to tylko dwa z licznych przykładów. Karty graficzne Intela maja obsługiwać zaawansowane funkcje , takie jak cieniowanie siatkowe, ray tracing w czasie rzeczywistym, supersampling AI i skalowanie wideo 4K. Podczas prezentacji Intel Arc, wiceprezes Roger Chandler, opisywał, „głębokie i ciągłe zaangażowanie firmy Intel na rzecz graczy i twórców na całym świecie” oraz, że zespół ciężko pracował, aby „zapewnić pierwszorzędne i bezproblemowe wrażenia, gdy produkty będą już dostępne ”. Pierwsze karty graficzne, które zostaną wydane, będą nosić nazwę kodową Alchemist, ale Intel już wyjawił też nazwy kolejnych generacji – w tym Battlemage, Celestial i Druid. Pojawią się one później, ale narrację Intela należy interpretować jako wieloletni (i prawdopodobnie wielopokoleniowy) plan rozwoju dla rynku GPU. Kiedy zostanie wydany pierwszy procesor graficzny Intel Arc? Podczas gdy Intel nie określił jeszcze potencjalnej daty premiery, jeden z przecieków w serwisie Weibo zasugerował, że układy zadebiutują podczas targów CES 2022 w styczniu. Źródło podawało, że informację uzyskało od osób z branży, zaangażowanych w produkcje. Miało to miejsce jeszcze przed oficjalnym ogłoszeniem i prezentacją Intel Arc. Zestawiając tą informację z otrzymaną datą przypadającą na pierwszy kwartał 2022, można przypuszczać, że jest ona prawdziwa. Oczywiste jest to, że nawet jeżeli karty zostaną zaprezentowane podczas targów, mogą od razu nie trafić na rynek do sprzedaży. Więcej informacji powinniśmy także otrzymać po premierze 12 generacji procesorów Core – Alder Lake. Ile będzie kosztował procesor graficzny Intel Arc? W tej chwili jest prawie niemożliwe aby przewidzieć cenę nowych urządzeń. Jest to pierwszy od dawna procesor graficzny od Intel'a ( i740 miał premierę w 1998 roku) . Z tego względu nie mamy żadnych cen, które stanowiły by punkt odniesienia. Także rynek kart graficznych jest obecnie w chaosie. Ciągły niedobór komponentów używanych przez producentów układów oznacza, że zapasy są ograniczone, a ich ceny zawyżone w porównaniu z tymi sugerowanymi przez producenta. Dobrym przykładem tutaj niech będzie RTX 3070 Nvidii czy RX 6700 XT od AMD. Obie karty, które powinny konkurować ze sobą przedziale cenowym ok. 2300 zł, w sklepach sprzedawane są w dwukrotnie wyższej cenie wynoszącej nawet 5000 zł. Jeśli Intelowi uda się w jakiś sposób obejść niedobory i przygotować wystarczającą ilość zapasów do wprowadzenia na początku przyszłego roku, będzie miał okazję do zyskania sporej części rynku dla siebie. W chwili obecnej wszystkie karty graficzne, nie zależnie od ceny wyprzedają się bardzo szybko, a niektórzy na swoje zamówienia czekają nawet po kilka miesięcy. Pojawienie się wydajnej konkurencji dostępnej w przystępnej cenie może skłonić część konsumentów do zmiany decyzji. Cóż na razie pozostaje nam czekać i trzymać kciuki. Czego można oczekiwać od karty graficznej Intel Arc Chociaż Intel potwierdził istnienie marki Intel Arc, i poinformował, że pracuje nad kilkoma procesorami graficznymi pod różnymi nazwami kodowymi, nie wiemy zbyt wiele o tym, co sobą zaoferują. Karty Intel Arc będą bazować na poprawionej mikroarchitekturze Xe-HPG, która według niebieskich powinna pomóc w bardziej wydajnym obliczaniu zaawansowanych funkcji graficznych, jak supersampling oparty na sztucznej inteligencji. Karty z serii Alchemist znane także pod nazwą Intel DG2 zbudowane są z rdzeni Xe. Każdy z nich zawiera 16 jednostek wektorujących (Vector Engine w skrócie VE - 256 bitowych) oraz 16 jednostek obliczeniowych macierzy (Matrix Engine w skrócie ME- każdy po 1024 bit). Każdy z nich wyposażony jest także w pojedynczy układ wspierający obliczenia związane ze śledzeniem promieni (Ray Tracing Unit), a ich ilość w całej karcie będzie zależała od tego z ilu rdzeni Xe składa się rdzeń. Pozwoli to na łatwą identyfikację gdy karty trafią już do sklepów. Blok składający się z 4 rdzeni Xe nazywany jest klastrem renderującym (Render Slice). Wymiana danych między nimi następuje za pomocą szyny Memory Fabric (odpowiednik pamięci cache L2). Para jednostek VE i ME często jest określana jako Execution Unit (w skrócie EU). W prezentacji Intel Architecture Day został zaprezentowany układ składający się z 8 bloków RS wyposażony w 512 EU przeznaczonych dla kart graficznych oraz jednostkę składającą się nawet 128 zmodyfikowanych rdzeni Xe - Ponte Vecchio. Jednak jest on przeznaczony do serwerów i centrów obliczeniowych. Udowadnia to jednak jaką swobodę posiada Intel w tworzeniu układów, które zapewniają odpowiednią wydajność dla każdego. Co ciekawe niebiescy nie zdecydowali się na możliwość zablokowania podkręcania układu, a funkcja ta będzie dostępna od daty premiery. Niestety do tej pory nie podzielono się z nami oficjalną prezentacją mocy obliczeniowej układów. Niektóre plotki wskazują, że najmocniejsza karta Intela ma oferować wydajność zbliżoną do RTX 3070. DG2's official competitors are 6700xt and 3070. Not bad.????— Greymon55 (@greymon55) September 7, 2021 I choć może się wydać, że jest to za mało to należy pamiętać, że to pierwsza dedykowana konstrukcja Intela od wielu lat. Wspominaliśmy wcześniej, że architektura ta pozwala łatwe skalowanie układów. I choć z marketingowego punktu widzenia posiadanie najmocniejszej karty graficznej może wydać się sensowne, to ostatnimi laty najczęściej przecież sprzedają się układy oferujące dobry stosunek wydajności do ceny i zapewne w to celuje Intel. Nigdy nie wiadomo czy w późniejszym terminie nie otrzymamy mocniejszych konstrukcji. Intel nie zdecydował się na produkcję układów w swoich fabrykach. Wszystkie karty z rodziny Alchemist będą produkowane w zakładach TSMC z wykorzystaniem 6 nm procesu litograficznego. Intel XeSS Jak już wspominaliśmy wcześniej nowe karty będą obsługiwać Super Sampling. Technologia mocno zbliżona do rozwiązania stosowanego przez Nvidię w DLSS. Umożliwia generowanie obrazu w niższej rozdzielczości i podbicie jego jakości do wyższej dzięki wykorzystaniu sieci neuronowych. Trochę więcej szczegółów na temat XeSS udzielił Karthik Vaidyanathan, główny inżynier Intela dla tej technologii w wywiadzie dla serwisu Wccftech. Przede wszystkim warto zaznaczyć, że gry wspierające rozwiązanie Intela nie będą musiały przechodzić specjalnego “treningu” z aplikacją. Z takiego rozwiązania korzysta właśnie Nvidia przy DLSS, aby gra mogła wspierać tą technologie. Wpierw musi zostać wygenerowany obraz o rozdzielczości 16K i jest on przepuszczany przez ciąg algorytmów wykorzystujących uczenie maszynowe. Dopiero po zakończeniu tego procesu rdzenie tensor w kartach Nvidii są wstanie upscalować obraz w celu uzyskania porównywalnej jakości jak przy natywnym renderowaniu. W przypadku Intela algorytm uczy się na obrazach referencyjnych z wykorzystaniem z 64 próbek na 1 pixel, w celu uzyskania jakości obrazu 64X SSAA. Intel opracowując XeSS przygotował dwa warianty: pierwszy oparty na akceleracji XMX, dostępny wyłącznie dla procesorów graficznych Intel Arc. Drugi bazujący na obliczeniach DP4a, czyli specjalnej akceleracji dot product obsługiwanej przez procesory graficzne obsługujących Microsoft Shader Model Dzięki temu możliwe będzie odpalenie XeSS także na kartach Nvidii z rdzeniami Pascal i Turing (GTX 1000 oraz RTX 2000) i AMD opartych na architekturze RDNA 1 i 2 (RX 5000 i RX 6000). Rozwiązanie DP4a jest wolniejsze od akceleracji XMX, ale i tak zapewnia szybsze generowanie klatek w porównaniu do klasycznego renderowania w natywnej rozdzielczości. To dobra wiadomość dla nas wyrzyskich, ponieważ podobnie jak AMD z FSR, XeSS nie będzie zamkniętym rozwiązaniem tylko dla jednego producenta. Oficjalnie jednak AMD nie potwierdziło publicznie chęci obsługi tej technologii. Wspomniane wcześniej API nie wymaga także osobnego programowania dla obu wariantów, a rozwiązanie XeSS jest wypełni integralne i nie tworzy osobnych interfejsów. Po zaimplementowaniu tego rozwiązania w grze dostaniemy także wybór trybu pracy, podobnie jak ma to miejsce w przypadku rozwiązań konkurencji. Priorytetem dla Intela jest możliwość zrezygnowania z z predefiniowanych ustawień na rzecz jednego który zapewni zarówno najwyższa wydajność jak i jakość obrazu nie odbiegającej natywnemu renderowaniu. Karthik potwierdził, że Intel wprowadzi w przyszłości XeSS i wraz z rozwojem technologii. Producent udostępni swoją technologię, gdy ta dojrzeje. Przejście na dystrybucję open source dla oprogramowywania super rozdzielczości opartej na sztucznej inteligencji może pomóc zwiększyć popularność XeSS i popchnąć rynek w kierunku ujednolicenia rozwiązań pomiędzy różnymi producentami, ale może być początkiem dalszej segmentacji rynku z niewielkimi zmianami między klonami XeSS. Jest to prawdopodobnie powód, dla którego Intel niechętnie otwiera swoją technologię w momencie premiery. Technologia Intel XeSS powinna zostać uruchomiona wraz z procesorami graficznymi Arc Alchemist w pierwszym kwartale 2022 r. Intel udostępni programistom pakiet XeSS SDK o zamkniętym kodzie źródłowym oparty na wersji XMX. Pakiet SDK wersji DP4a zostanie wydany do końca tego roku. To wszystko co na tę chwilę wiemy o kartach Intel Arc. Z niecierpliwością wyczekujemy nowych informacji i oczekujemy premiery układów. Nadzieja, że trzeci gracz na rynku kart graficznych zapewni lepszą dostępność, ale i przede wszystkich konkurencyjność cenową napawa optymizmem.
Tematy o ograniczenie karty graficznej, Karta Graficzna 128 MB GeForce nVidia, Karta graficzna z 2 wentylatorkami, Karta Graficzna do gier za 300 zł 2014/2015, Karta graficzna do GTA V na niskich/średnich detalach., Szum w słuchawkach przy obciążeniu karty graficznej
Potężna karta graficzna to marzenie większości graczy. Najwięksi komputerowi entuzjaści z głębokimi kieszeniami w poszukiwaniu dodatkowej mocy decydują się jednak na zakup przynajmniej dwóch takich układów. Czy zyskują coś na takim ruchu? Tłumaczymy, co daje łączenie kart graficznych i jak się do niego zabrać. Polecamy: Jaka karta graficzna do gier? Rynek kart graficznych rozwija się niezwykle dynamicznie już od ponad dwóch dekad i napędzany jest w dużej mierze przez fanów elektronicznej rozrywki. Każdego roku informowani jesteśmy o rychłym nadejściu jakiegoś nowego standardu technologicznego, pozwalającego cieszyć się w domach grafiką o jakości, jaką nieco wcześniej można było uzyskać tylko na potężnych superkomputerach oraz stacjach największym stopniu nowości te pobudzają wyobraźnię niewielkiej grupy zapaleńców i entuzjastów skłonnych wydać każde pieniądze, by móc pochwalić się przed znajomymi jak najbardziej wydajnymi podzespołami. To głównie te osoby decydują się na zakup nie jednej, ale dwóch albo nawet i czterech kart graficznych. Tłumaczmy, na czym polega ten zabieg, co daje i czy w ogóle ma sens. Co daje łączenie kart graficznych?Najczęściej łączy się dwie karty graficzne, chociaż istnieje możliwość łączenie trzech lub nawet czterech równocześnie. Na jaki wzrost wydajności możemy liczyć po zespoleniu GPU? Laik mógłby spodziewać się, że będzie on stuprocentowy, bowiem korzystamy teoretycznie z dwóch procesorów graficznych jednocześnie. Sprawa jest jednak nieco bardziej nie wykorzystuje pełnej mocy obu działających w parze GPU. Druga karta pełni bowiem rolę pomocniczą, wspomagając bliźniaka w przeprowadzaniu operacji obliczeniowych. Osiągnięty przyrost mocy w takiej konfiguracji zależy od wielu czynników i może wynosić od kilkunastu do kilkudziesięciu grach sytuacja jest jeszcze zgoła inna. Jeżeli bawimy się z dobrze zoptymalizowanymi produkcjami, otrzymamy wspaniałe efekty. W przypadku, gdy tytuł nie obsługuje dwóch kart graficznych, zaobserwujemy nawet straty w płynności, z jaką wyświetlana jest grafika, w porównaniu do pojedynczego gamingiem podwójne GPU przydaje się, gdy korzystamy z kilku monitorów jednocześnie, pracujemy z zaawansowanymi programami graficznymi lub używamy bardzo wysokich rozdzielczości ekranu. Czy możemy połączyć ze sobą wszystkie modele kart graficznych?Nie. Zazwyczaj połączymy ze sobą tylko te karty graficzne, które wspierają tego typu operację. Po pierwsze, muszą być one kompatybilne z jedną z dedykowanych technologii dostarczonych przez czołowych producentów układów graficznych, chodzi tu oczywiście o firmy Nvidia oraz AMD. W przypadku kart Nvidia GeForce nosi ona nazwę SLI (Scalable Link Interface), a w przypadku AMD Radeon łączenie kart graficznych przygotowana powinna być ponadto płyta główna. Sprawdzamy, czy ma co najmniej dwa porty PCIe Express oraz odpowiedni certyfikat SLI lub Crossfire. Współczesne GPU są niezwykle masywnymi urządzeniami, wymagają więc odpowiednio dużo wolnego miejsca w obudowie zapominajmy również o zapewnieniu wystarczającego poziomu energii układom. Będzie nieodmiennie wiązało się to z zakupem bardzo silnego zasilacza komputerowego wysokiej klasy. Niezwykle ważne jest też skuteczne chłodzenie całego zestawu, konieczna może okazać się więc instalacja dodatkowych lub silniejszych wentylatorów. Łączenie kart graficznych Nvidia GeForce – SLIWspółpracujące z SLI modele GPU posiadają z boku specjalne łącze, do którego podłączamy tzw. mostek, który fizycznie scala kilka układów i pozwala im na dodatkową wymianę informacji. Zaznaczmy, że w przypadku Nvdii karty działające w tandemie muszą być identyczne. Łączenie kart graficznych AMD Radeon – CrossfirePodobnie jak w przypadku SLI, kartę Radeon z Crossfire łączymy ze sobą za pomocą specjalnego kabla. W najnowszych modelach kart wspierających tę technologię nie jest to już jednak wymagane. Zaletą Crossfire jest również to, że możemy sparować ze sobą dwa różne modele układów graficznych. Czy łącznie kart graficznych ma sens?Obecnie łączenie kart graficznych ma coraz mniejszy sens i na tę sytuację wpływają głównie drastycznie rosnące ceny tych układów oraz ich mocno ograniczona dostępność w sklepach. Kupno dwóch flagowych lub bardzo dobrych GPU jest przez to czystym szaleństwem dla 99 procent graczy. Do podobnego wniosku doszły również firmy AMD i Nvidia, które po cichu przestają wspierać i promować technologię łączenia kart. Najnowsze układy Nvidii z serii GeForce 30** kompletnie porzuciły już np. oficjalne wsparcie dla SLI. Do projektantów GPU dołączają także firmy oferujące płyty główne, a także deweloperzy gier, którzy rezygnują z dodatkowej optymalizacji swoich produkcji z myślą o SLI i to znacząco obniżyło atrakcyjność całej operacji, o której, jeżeli nic się nie zmieni, nie będzie pamiętał nikt poza małymi kręgami entuzjastów oraz właścicielami starszych modeli kart.
Jeśli podłączyłeś wszystko, a karta nie włącza się, może być wadliwe. Patrz sekcja testowania karty w komputerze zastępczym lub skontaktuj się z producentem. 6. Czy twój zasilacz jest wystarczająco silny? Każda karta ma określone wymagania dotyczące mocy do pracy. Jeśli komputer nie może go dostarczyć z wystarczającą mocą
Recommended Posts Udostępnij Siema. Ostatnio podczas grania w gry, moja karta była wykorzystywana w 100%. Dzisiaj coś jej 'odwaliło' i nagle jest wykorzystywana tylko mniej więcej w połowie. Co najlepsze, nie ogranicza ją procesor, ponieważ ten jest w użyciu max 40%. Od dzisiaj również zaczęły piszczeć cewki na karcie. Czy to może być tym spowodowane? Mógł się włączyć jakiś 'tryb oszczędzania energii' lub coś podobnego? Karta to MSI GTX 1060, a procesor i7-3770K @ 4,7GHz 1,375v. Pozdrawiam ! Cytuj Link to post Share on other sites Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Cytuj Link to post Share on other sites Autor Udostępnij Raczej w CS:GO procesor jest używany i GTX 1060 to nie powinien się męczyć w nim na 100%. Ja gram na i5 6600 i GTX 1060 to karta chodzi na max 60% przy średnich-wysokich ustawieniach, procesor też do 70-80% sięga w sumie ;p Tak, zgadzam się z tobą. Tylko problem jest taki, że w GTA 5 jest to samo. Kartę kupiłem tydzień temu jako nową i od razu zainstalowałem MSI Afterburner, aby sprawdzić zużycie procesora oraz karty graficznej. W GTA oraz CS karta działała na 100%, procek max max 60%. Poza tym - ustawienia minimalne, więc 160FPS to raczej trochę słabo jak na i7 oraz 1060... Przed "spadkiem wydajności" miałem prawie 500 FPS, a karta działała na 100% (ustawienia takie same)... Cytuj Link to post Share on other sites Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Cytuj Link to post Share on other sites Autor Udostępnij Możesz albo ustawić plan zasilania w systemie na maksymalną wydajność, albo sprawdzić, czy przypadkiem jakiś nowy cfg nie zmienił Ci fps_max - najlepiej ustaw na 999. Ale to pewnie już sprawdziłeś... Sprawdzałem jedno i drugie. fps_max mam na 999, a ustawienia zarządzania energią na maksymalną wydajność (te w bios również) Ostatnio bawiłem się napięciem na procesorze, aby zmniejszyć temperatury na CPU. Ustawiłem próbie na 1,370 (aktualnie mam 1,375). Problem jest od tego momentu. Czy możliwe aby zasilacz zwariował i zaczął podawać źle napięcie na cały komputer (przez co ten automatycznie obniża zegary na karcie)? Posiadam Xfx core 550, co prawda już swoje lata ma (około 6), ale chyba nie powinno mu się nic stać... Sam już nie wiem... Cytuj Link to post Share on other sites Udostępnij może masz płytę ze starym portem PCI_E x16 i wystarczy bios zaktualizować... zobacz w programie GPU_Z zegary karty graficznej gpu/mem (zakładka Sensors), oraz tryb magistrali PCI_E (zakładka Graphics Card) Cytuj Link to post Share on other sites Autor Udostępnij Bios aktualizowałem do najnowszego (musiałem, bo wymieniłem procesor). Zegary działają tak, jak podaje producent. Płyta to Asus P8P67. Na stronie producenta niby jest napisane pci-e ale przecież przez tydzień było wszystko ok... Eh Cytuj Link to post Share on other sites Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? Cytuj Link to post Share on other sites Udostępnij Usuń sterowniki od GPU i MSI Afterburner-a. Później oczywiście zainstaluj nowe. Miałem coś takiego dwukrotnie. Cytuj Link to post Share on other sites Udostępnij Filmiki z youtube wyraznie wskazuja ze nie ma zadnych 500 fps wiec bajdurzysz Cytuj Link to post Share on other sites Autor Udostępnij Prawdopodobnie to wina twojego ukochanego Windowsa 10, jak masz jakiś wolny dysk zainstaluj tam Windows 7 i wykonaj test. Komp po formacie, dalej to samo... Najlepsze jest to, że grafa dostaje czasem "kopa" i zaskakuje na 100%, lecz po chwili dostaje freeza na pół sekundy i znowu ma 50%. Cytuj Link to post Share on other sites Udostępnij Tak z czystej ciekawosci, co windows 10 moze robic, ze mu wykorzystuje tylko czesc mocy karty? jego płyta nie dostała full sterowników dla 10, Cytuj Link to post Share on other sites Autor Udostępnij Dzisiaj na próbę wsadziłem moją starą kartę GTX660. O dziwo - karta działa na 100%. Czysty Windows. Tylko Steam + sterowniki od karty. Ilość FPS w GTA5 oraz CS:GO na GTX 1060 taka sama, jak na GTX 660. Stary zestaw: GPU - 100%, CPU - 60%Nowy zestaw: GPU - 50%, CPU - 45% Uruchomiłem jeszcze 3DMark. Użycie GTX 1060 tylko w nim jest 100%...?? Czyli karta teoretycznie działa jak należy...?? Edytowane 8 Sierpnia 2017 przez proboszcz447 Cytuj Link to post Share on other sites Dołącz do dyskusji Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
RTV. Ciekawostki. Firma. AGD. Filmy / Seriale / VOD. Szukaj w serwisie. Twój profil. GeForce RTX 3080 zapowiadał się jako karta graficzna marzenie. Okazuje się, że w praktyce nie wygląda to tak pięknie, bo użytkownicy coraz częściej zgłaszają problemy z działaniem nowych modeli.
Please add exception to AdBlock for If you watch the ads, you support portal and users. Thank you very much for proposing a new subject! After verifying you will receive points! lukiaszek1272 03 Jan 2020 03:56 180 #1 03 Jan 2020 03:56 lukiaszek1272 lukiaszek1272 Level 2 #1 03 Jan 2020 03:56 Witam, po zakupie nowej karty rx570 4GB mam taki problem że karta jak podaje menedżer zadań wykorzystuje swoje 100% gdzie wykorzystane jest 2GB z 4GB. Helpful post #2 03 Jan 2020 08:39 badboy84 badboy84 Level 42 Helpful post #2 03 Jan 2020 08:39 To nie ma żadnego związku, użycie GPU nie jest zależne od wykorzystania pamięci. Tu nie ma problemu ... #3 03 Jan 2020 10:04 User removed account User removed account Level 1 #3 03 Jan 2020 10:04 Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? #4 03 Jan 2020 12:13 lukiaszek1272 lukiaszek1272 Level 2 #4 03 Jan 2020 12:13 Tomequ123 wrote: Badboy ma rację, W jakiej rozdzielczości grasz, jakie ustawienia, jakie gry? Przykładowo BF Bad Company 2 Ustawienia ultra + 1920×1080 Helpful post #5 03 Jan 2020 12:32 User removed account User removed account Level 1 Helpful post #5 03 Jan 2020 12:32 No to o czym my mówimy. Włącz grę AAA z 2014+ na Ultra, to zobaczysz 4GB. #6 03 Jan 2020 13:00 lukiaszek1272 lukiaszek1272 Level 2
Przyczyn może być kilka ale trzeba wszystkie wyeliminować. Zacząłbym od porządnego zainstalowania systemu windows 10 na czysto. Autor pisze że został zrobiony upgrade płyty głównej karty graficznej procesora i ramu. A dysk twardy został. Najzwyczajniej w serwisie nie stawiali systemu tylko zrobili aktualizację i święto. To
Dlaczego odpowiedni dobór CPU do GPU jest tak ważny? Procesor, czyli centralna jednostka obliczeniowa (CPU – ang. Central Processing Unit), często określany jest mianem serca i mózgu komputera (i nie tylko komputera). Odgrywa on ważną rolę, ponieważ bez niego dane urządzenie nie mogłoby działać. Analizuje i przetwarza informacje, a także wykonuje obliczenia (dowiedz się więcej o tym, jak działa procesor). A w grach? Odpowiada za np. ustalanie pozycji postaci i elementów otoczenia czy liczy każdy ruch przeciwników i pojazdów. Właściwe dopasowanie CPU do karty graficznej (GPU – ang. Graphics Processing Unit) jest kluczowe, ponieważ te komponenty mają największe przełożenie na wydajność naszego komputera. Zły wybór procesora nie pozwoli rozwinąć skrzydeł karcie graficznej, a co za tym idzie – w grach nie uda się osiągnąć odpowiednio wysokiej liczby klatek (fps – ang. frames per second). To z kolei istotnie przekłada się na komfort rozgrywki. Jeśli CPU wysyła zbyt wolno instrukcje do GPU, ten drugi komponent odpowiedzialny za wyświetlanie obrazu, który widzisz na ekranie, musi czekać na kolejny, jakże zbawienny zestaw danych, po prostu nudząc się jak mops. Jest to cel, do którego zdecydowanie nikt nie powinien dążyć. Wbrew pozorom dopasowanie tych podzespołów może być trudniejsze, niż się wydaje. Producenci procesorów zasypują potencjalnych konsumentów licznymi modelami, by mieli oni z czego wybierać. Parafrazując jednak inne, nie mniej znane przysłowie – od przybytku głowa może jednak zaboleć. Dlatego w tym poradniku przybliżymy, na co zwracać uwagę, by mądrze dobrać procesor do karty graficznej. Odpowiemy także na mniej oczywiste pytania, takie jak: czy nie do końca udanie dopasowany tandem ma sens? Jeśli Twój głód wiedzy nie został zaspokojony, więcej informacji o procesorach i kartach graficznych znajdziesz w naszych poradnikach o tym, jak wybrać CPU i GPU. Ułatwią one dopasowanie tych komponentów. Poza tym stanowią dobry punkt wyjścia do niniejszego poradnika. Jak wybrać procesor? Co trzeba wiedzieć o CPU? Jaką kartę graficzną wybrać? Która jest najlepsza? Bottleneck – czym jest? Jak go uniknąć? Zanim przejdziemy do sedna tematu, najpierw wypadałoby odpowiedzieć na zadane pytanie. Odpowiedź na nie jest niezwykle istotna, bo nierozerwalnie wiąże się CPU i GPU oraz odpowiednim doborem tych (i nie tylko tych) komponentów. Bottleneck powstaje wtedy, gdy jeden z podzespołów ogranicza drugi. Wyobraź sobie, że masz szybki samochód, ale przez wbudowany układ ogranicznika prędkości do stosunkowo niskich wartości nie będziesz w stanie poczuć jego mocy. Innymi słowy – nie rozpędzi się tak, jakby mógł rozpędzić się na dobrej autostradzie. Analogicznie jest w połączeniu procesora i karty graficznej, w przypadku którego jeden układ może wyhamowywać drugi. Gdy dobierzesz zbyt słabe CPU do GPU, nie poznasz prawdziwego potencjału tego drugiego komponentu, ponieważ dostosuje się on do pierwszego. Tym samym procesor stanie się rzeczonym ogranicznikiem prędkości. Co czeka kartę graficzną w takim towarzystwie? Dopóki nie wymienisz procesora na wydajniejszy, dopóty będzie się ona marnować nieustannie, a gracz może cierpieć katusze podczas grania. To właśnie w przypadku złego połączenia dochodzi do tzw. bottlenecku, czyli wąskiego gardła, które przytacza się w światku komputerowym najczęściej w kontekście zestawiania CPU i GPU. Co zrobić, by nie dopuścić do tej sytuacji? Czy wystarczy prosta rada: „nie kupuj procesora za 500 zł do karty graficznej wartej 4000 zł”? Takie połączenie nawet na chłopski rozum nie ma większego sensu, ale temat wymaga szerszego rozwinięcia. Zjawisko bottlenecku, które odnosi się nie tylko do CPU i GPU, bo problem może stanowić np. pamięć RAM, jest też ściśle powiązane z grami. Co to znaczy? W tych tytułach, które polegają głównie na mocy karty graficznej, możesz nie odczuć efektu wąskiego gardła, ponieważ wydajność nie jest w nich zależna od procesora albo jest, ale w niewielkim stopniu lub tylko w wybranych lokacjach. Jak może objawiać się bottleneck ze strony CPU? Możesz uświadczyć podczas rozgrywki w grach drastyczne spadki płynności animacji, zwłaszcza w miejscach zależnych od procesora. Karta graficzna może ogólnie oferować niedostateczną lub bardzo nierówną wydajność, jak na swoje możliwości. Wiesz już, że wystąpienie zjawiska bottlenecku ze strony procesora w jednej grze nie musi przełożyć się na ten sam efekt w innej. Co możemy w takim razie zrobić z tą wiedzą? Jak zminimalizować efekty wąskiego gardła? Przejdźmy do najważniejszej części, która szerzej odpowie na nurtujące pytanie: jak uniknąć bottlenecku? Co wziąć pod uwagę przy wyborze procesora i karty graficznej? Zanim zdecydujesz się na odpowiedni procesor do swojej lub planowanej karty graficznej, koniecznie weź pod uwagę kilka czynników. To one zadecydują o tym, jakie CPU będzie najlepsze do Twojego zestawu komputerowego, by nie wyhamowywał on odczuwalnie – albo najlepiej wcale – wydajności GPU. Jakie czynniki są najważniejsze przy doborze CPU do GPU? Przede wszystkim warto zadać samemu sobie kilka pytań: Do czego służy Ci komputer? Jeśli grasz, to w jakie gry i gatunki? W jakiej rozdzielczości grasz? Jakie odświeżanie (w Hz) ma Twój monitor i do jakiego poziomu fps dążysz? Komputer do gier czy nie do gier? Jaki wybrać procesor do gier? To pierwsze pytanie, na które musisz sobie odpowiedzieć. W końcu dobór podzespołów nie musi być uniwersalny. Wszystko zależy od tego, do czego będzie wykorzystywany komputer. Można jednak tak dopasować komponenty, by dobrze spisywały się zarówno w (nowych) grach, jak i np. w streamingu czy w montażu filmów. Obecnie do gier wystarczają 6-rdzeniowe (i najlepiej 12-wątkowe) CPU, ale to, że w konsolach PS5 i Xbox Series X/S znajduje się 8-rdzeniowa i 16-wątkowa jednostka, może przełożyć się w przyszłości na lepsze wykorzystanie większej liczby rdzeni. Przy czym miej na uwadze, że procesor procesorowi nierówny. Zmiany i postęp w architekturze mają duży wpływ na wydajność i na to, czy połączenie z danym GPU będzie (mniej lub bardziej) udane. Dowodem na potwierdzenie tych słów będzie procesor AMD Ryzen 5 1600X (Zen) z 2017 roku, który ma tyle samo rdzeni i wątków, co wydany w 2020 roku Ryzen 5 5600X (Zen 3). Mimo to może „dławić” nowsze i (naj)wydajniejsze karty graficzne, bo jego moc wyraźnie odstaje od nowocześniejszego CPU. W grach bardziej liczą się rdzenie fizyczne, dlatego lepszy będzie procesor 6-rdzeniowy i 6-wątkowy niż 4-rdzeniowy i 8-wątkowy. Nawet współczesne jednostki 4-rdzeniowe i 8-wątkowe będą ograniczać wydajną kartę graficzną (i to starszą niż mocne modele z serii RTX 3000 i RX 6000) – nie tylko w 1080p, ale także często w 1440p, a w niektórych produkcjach nawet w 4K. Jeśli grasz, odpowiedz sobie jeszcze na pytanie: czy streamujesz podczas grania? Tak? W takim razie inwestycja w wydajny procesor w wieloma rdzeniami ma jeszcze więcej sensu. Jakie połączenie CPU i GPU do zastosowań biurowych i (pół)profesjonalnych? Co, jeśli komputer nie ma służyć do gier? Procesor do komputerowego biurowego ma większe znaczenie niż karta graficzna. W tym przypadku ten drugi podzespół zwykle stanowi zintegrowany układ, mimo że system operacyjny Windows coraz bardziej wykorzystuje (i)GPU. Gdy procesor nie ma wbudowanej karty, do prostych zadań biurowych możesz wybrać najtańszy model z rodziny GeForce lub Radeon. Procesor do prostych zadań biurowych, przeglądania internetu czy odtwarzania filmów nie musi być mocny. W zupełności wystarczą tanie modele pokroju Intel Celeron, Pentium, Core i3 lub AMD Athlon czy Ryzen 3 (w przypadku „czerwonych” najlepiej APU ze zintegrowaną grafiką). Do nieco bardziej wymagającego sprzętowo oprogramowania lub np. użytkowania wielu aplikacji naraz może przydać się mocniejsza jednostka (np. Intel Core i5 lub AMD Ryzen 5), ale nie potrzebujesz do tego topowego modelu z odblokowanym mnożnikiem (np. seria K od Intela) i flagowego GPU za kilka tysięcy złotych. Do zastosowań (pół)profesjonalnych, takich jak renderowanie, grafika, montaż filmów, procesor – najlepiej z dużą liczbą rdzeni i wątków – zyskuje jeszcze bardziej na znaczeniu, podobnie jak karta graficzna, ale jest to zależne od tego, czym się zajmujesz. Do najbardziej wymagających zadań, takich jak CAD/CAM, możesz wybrać stworzony z myślą o środowisku profesjonalnym procesor, np. AMD Threadripper, który połączysz z układem graficznym RTX Quadro lub Radeon Pro. W jakie gry (gatunki) grasz? Co jeśli procesor i karta graficzna mają służyć przede wszystkim do gier? Czy grasz w nowe czy stare gry? W jakie gatunki grasz? Czy są to strategie, produkcje niezależne (tzw. indie), przygodówki czy może nowoczesne RPG-i, strzelanki albo tytuły nastawione na kooperację i rozgrywkę sieciową? Wymóg co do podzespołów jest zależny od gier i gatunków, dlatego warto przeanalizować, w co grasz i w co zamierzasz grać. Może w końcu być tak, że po prostu dotychczasowy komputer – niezależnie od tego, czy ograniczenie stanowi CPU, czy GPU – uniemożliwia Ci rozgrywkę w nowości, a nie chcesz się ograniczać w przyszłości do samych „staroci”. Trzeba te czynniki wziąć koniecznie pod uwagę. Do np. izometrycznych RPG-ów, które przywodzą na myśl klasyki gatunku, nie potrzeba (zwykle) tak mocnego CPU i GPU, jak do produkcji klasy AAA. Po co więc inwestować w Core i9 albo Ryzena 9? Inaczej będzie, gdy chcesz grać z możliwie najwyższym fps i ustawieniami graficznymi, włącznie z ray tracingiem, wtedy wybór topowych jednostek ma jak najbardziej sens. Czy procesor przestaje mieć znaczenie w grach? Co jeszcze warto wiedzieć? Prawda jest taka, że współczesne gry w coraz bardziej wykorzystują moc karty graficznej, a procesor często schodzi na drugi plan. Wyjątkiem są chociażby strategie pokroju serii Total War i Civilization czy tytuły e-sportowe, takie jak CS:GO (Counter-Strike: Global Offensive) i LoL (League of Legends), które bardzo mocno wykorzystują moc jednego rdzenia. Z kolei na wielordzeniowość – i ogólnie moc procesora – stawiają gry wieloosobowe z duża liczbą postaci na ekranie, czyli doskonałym przykładem będzie seria Battlefield. Z kolei do Rainbow Six: Siege nawet nie najnowszy 6-rdzeniowiec jest w zupełności wystarczający. Do gry Ubisoftu warto też zainwestować w wydajniejszą kartę graficzną. Nie oznacza to jednak, że CPU przestaje mieć jakiekolwiek znaczenie, bo tak nie jest. W wielu grach, w tym tych z otwartym światem, nadal wymagana jest dość szybka jednostka, która będzie dobrze współpracować z kartą graficzną, zapewniając odpowiednio wysoką wydajność. Nowe produkcje zaczynają też stopniowo wykorzystywać lepiej więcej rdzeni i wątków, więc ich zbyt mała liczba może skutkować efektem wąskiego gardła. Miej tylko na uwadze, że wydajność procesora nie jest zależna tylko od mocy i liczby rdzeni (wątków), ale także od częstotliwości taktowań, ilości pamięci cache czy pamięci RAM. Połączenie z kartą graficzną jest tak ważne, bo GPU będzie tak szybkie, na ile pozwoli CPU. Czy rozdzielczość ma znaczenie przy wyborze procesora i jak duże? Owszem, ma bardzo duże. Im wyższa rozdzielczość, tym procesor traci na znaczeniu. Wówczas możesz pozwolić sobie na dobór słabszego CPU do mocniejszego GPU. Ale nawet w rozdzielczościach 1440p (2560 x 1440 pikseli) i 4K (3840 x 2160 pikseli) procesor nadal jest dość ważny, szczególnie w tej pierwszej. Nie może dzielić tych podzespołów zbyt wielka przepaść. W takim scenariuszu CPU też może okazać się zbyt wolne, by nadążyć za mocnym GPU. W rozdzielczości 1080p (lub niższej) procesor gra pierwsze skrzypce – kieruj się wtedy rozsądkiem. Wówczas karta graficzna nie musi być z topowej półki wydajnościowej, bo i tak nie wykorzystasz w pełni jej mocy. Ona pokaże pełny potencjał dopiero w wyższych rozdzielczościach. Jeśli grasz w Full HD, lepiej wybierz nieco słabszą kartę graficzną, zamiast łączyć tanie, niezbyt wydajne CPU z bardzo mocnym GPU, które sprawdza się przede wszystkim w wysokich rozdzielczościach. W Full HD, aby w pełni wykorzystać potencjał najmocniejszych kart graficznych – czasem nawet w 1440p – może nie wystarczyć nawet Intel Core i9 i AMD Ryzen 9, czyli flagowe jednostki CPU. Warto wówczas pokusić się o OC (podkręcenie) procesora i/lub RAM-u, ewentualnie zakup szybszych pamięci (do tego, jak są one istotne w odniesieniu do procesora, jeszcze wrócimy). Gdy masz monitor o wysokiej częstotliwości odświeżania obrazu (np. 144, 240 lub więcej Hz) i przedkładasz wydajność nad rozdzielczość, to wtedy również pomyśl o mocniejszym procesorze. Takim, który będzie w stanie dorównać szybkością karcie graficznej. Ona w końcu musi też być z wysokiej półki, bo inaczej nie uzyska się odpowiednio dużej liczby fps (przynajmniej w nowościach). Dopiero te dwa dobrze połączone ze sobą komponenty (trzy, jeśli wliczymy także RAM) zaowocują wysoką płynnością animacji i wykorzystaniem możliwości wysokohercowego monitora. W przypadku gier e-sportowych nie potrzebujesz najmocniejszych jednostek, ale gdy chcesz cieszyć się w najbardziej wymagających grach bardzo wysokim fps i najwyższymi detalami w 1080p, wybierz topowe modele zarówno CPU i GPU. Jak wygląda sytuacja w wysokich rozdzielczościach? Różnica między np. Ryzenem 5 2600X (druga generacja Zen) a Ryzenem 5 5600X (czwarta generacja Zen) może się zacierać. Dotyczy to głównie 4K (w 1440p możesz odczuć znaczną poprawę), gdzie wybór mocniejszego procesora może nie być uzasadniony. Limit bowiem osiąga w takim scenariuszu GPU. Wątek ten można podsumować krótko: wolniejszy procesor lepiej sprawdza się w 4K niż w Full HD. Czy tylko rozdzielczość ma znaczenie w kontekście CPU? Znaczenie ma nie tylko rozdzielczość, ale także wiele ustawień graficznych. Im wyższe detale ustawisz, tym CPU odegra mniejszą rolę. Wtedy więcej pracy będzie mieć GPU. Chyba że mowa o tych mocno zależnych od mocy procesora, np. geometrii, LoD (poziom szczegółowości), ilości obiektów, cieni i cząsteczek, zasięgu rysowania, polu widzenia (FOV), gęstości tłumu, roślinności i zasięgu jej widoczności czy opcjach związanych z fizyką. Ich obniżenie może zminimalizować efekt bottlenecku CPU. Jeśli masz potrzebę grać we wszystko w Ultra, budżet przechyl bardziej w stronę GPU niż CPU. Gdy karta graficzna nie będzie już dawać rady, wtedy możesz obniżyć ustawienia graficzne, które najbardziej obciążają ten komponent, by zwiększyć liczbę fps. Do takich opcji zaliczają się wygładzanie krawędzi (antyaliasing), jakość cieni, szczegółowość tekstur, okluzja otoczenia, oświetlenie, odbicia czy efekty postprocesowe. Prócz tego możesz zmniejszyć rozdzielczość. Czy pamięć RAM odgrywa ważną rolę przy wyborze CPU? Tak, nie liczy się tylko ilość (zbyt mała może doprowadzić do tzw. stutteringu i freezów, czyli z ang. ścinek i „zamrożeń obrazu”), ale także odpowiednio szybka pamięć operacyjna (RAM) ze stosunkowo niskimi opóźnieniami. Ma ona wpływ na wydajność procesora. Różnice odczujesz przede wszystkim w grach wykorzystujących głównie moc CPU i w rozdzielczościach do 1080p. W wyższych różnice w wydajności mogą być niewielkie (1440p) albo wręcz marginalne (2160p). Weź pod uwagę, że nie zawsze najszybsze pamięci to najlepszy wybór. Często przekroczenie pewnej granicy nie daje już tak znaczących rezultatów i nie warto dopłacać do pamięci np. powyżej 3600 MHz. Do współczesnych procesorów wystarczy zazwyczaj RAM DDR4 w trybie dual-channel pracujący z częstotliwością 3200 MHz i opóźnieniami CL 14-16. Pamięci poniżej 3000 MHz mogą ograniczać wydajność. Odpowiednie szybka pamięć operacyjna może zmniejszyć efekt wąskiego gardła w tych lokacjach gier, w których może on występować. Czyli? W miejscach, w których najbardziej liczy się wydajność procesora. Szczególnie wyraźne różnice mogą wystąpić pomiędzy pamięciami w trybie dual-channel a jedną kością (tzw. single-channel). Jaki RAM do laptopa, a jaki do desktopa? Doradzamy wybór pamięci Jak sprawdzić, czy procesor nie ogranicza karty graficznej? Najprościej byłoby wyposażyć komputer w nową kartę graficzną. Jeśli przyrost klatek na sekundę będzie w grach niewielki albo wręcz zerowy po jej wymianie, to wniosek nasuwa się sam. CPU najpewniej jest zbyt słabe, by napędzić GPU. Taka wymiana okaże się tylko stratą pieniędzy. Wiemy jednak, że nie każdy może sobie na to pozwolić, dlatego przedstawimy kilka sposobów, które pomogą rozpoznać bottleneck. Najpierw wyjaśnijmy, czym są miejsca procesorowe, a czym graficzne, bo są one kluczowe, by wykryć, jaki podzespół stanowi wąskie gardło w komputerze. Czym jest miejsce procesorowe? To takie, które wykorzystuje przede wszystkim moc CPU, a więc chociażby duże miasto wypełnione postaciami niezależnymi typu Novigrad i Beauclair z gry Wiedźmin 3: Dziki Gon oraz dodatku Krew i wino, czy pole bitwy w tytułach ze strategicznej serii Total War. W takich miejscach scena zmienia się dynamicznie, bo gracz widzi na ekranie np. wprawione w ruch postacie. Miejsce graficzne, jak możesz się domyślić, polega głównie na wydajności GPU, które nakłada tekstury oraz zajmuje się liczeniem wypełniających daną scenę cieni, rysowaniem rozbudowanej siatki geometrycznej (wstępną zajmuje się procesor) i obróbką każdego piksela. Takie miejsce są często określane statycznymi, w których stosunkowo niewiele się dzieje, ale jest co podziwiać. Przykładem takiego miejsca może być – jeśli pozostaniemy przy Wiedźminie 3 – puszcza niedaleko wsi Ferlund na Skellige. Czy MSI Afterburner pomoże rozpoznać bottleneck? Pomocna w uchwyceniu zjawiska wąskiego gardła może być darmowa aplikacja pokroju MSI Afterburner z dołączanym RivaTuner Statistics Server (RTSS). Pozwala ona na monitorowanie pracy procesora czy karty graficznej na bieżąco w grze. Z poniższego materiału wideo dowiesz się, jak wyświetlić niezbędne dane podczas rozgrywki dzięki MSI Afterburner: Co powie nam stopień obciążenie podzespołów, gdy trafimy do lokacji, w której GPU będzie obciążone zaledwie w 50-60%, a z procesora będą wyciskane ostatnie poty (wskaźnik będzie ciągle informował o niemal maksymalnym obciążeniu)? Albo np. trafiliśmy na miejsce typowo procesorowe, albo wydajność procesora niedomaga. Sprawdź, czy w tych lokacjach dochodzi do drastycznych spadków płynności animacji. Jeśli tak, to, owszem, CPU może stanowić przyczynę problemów z wydajnością. Często jednak sytuacja nie jest tak oczywista. Inny przykład: w miejscu procesorowym danej gry CPU jest obciążone w 60%, a karta graficzna w 97%. Na pierwszy rzut oka wydaje się, że problemu żadnego nie ma. Ale czy na pewno? No właśnie nie. W opisanym scenariuszu procesor również ogranicza wydajność GPU, mimo że wskaźniki tego nam nie mówią. Można nawet źle je odczytać i pomyśleć, że karta graficzna ogranicza wydajność, bo pracuje na pełnych obrotach, a płynność pozostawia wiele do życzenia. Opieranie swoich wniosków wyłącznie na podstawie stopnia obciążenia procesora i karty graficznej jest błędem! Nie można patrzeć na nie bezrefleksyjnie, bo same w sobie mogą nie mieć żadnej wartości. Mogą co najwyżej ułatwić wykrycie podzespołu, który stanowi wąskie gardło. Nie zapominaj, że może być nim także RAM. Wielu użytkowników łączy często nowoczesną jednostkę CPU z wolnymi pamięciami o np. szybkości 2133 czy 2666 MHz, co jest fatalnym pomysłem. Jak wspomnieliśmy, zamiana kości RAM na 3200-3600 MHz może tchnąć nowe życie w procesor, który poradzi sobie lepiej w lokacjach wymagających dużej mocy od tego podzespołu. Czy zmiana rozdzielczości i ustawień graficznych to recepta na wykrycie wąskiego gardła? Warto powyżej opisany sposób połączyć z innymi, co zwiększy prawdopodobieństwo wykrycia bottlenecku. Znaczenie procesora zwiększa się po obniżeniu rozdzielczości i/lub określonych detali. Jeśli zmniejszysz je i nie dadzą one pożądanego wzrostu wydajności, może być to oznaka wąskiego gardła. Może, lecz nie musi. Sporo zależy bowiem od silnika i optymalizacji gry – nie brakuje tytułów, w których zmiana ustawień graficznych nie daje zbyt wielkiego przyrostu fps, co automatycznie skreśla procesor jako źródło problemu. Poza tym jest mnóstwo ustawień graficznych zależnych od GPU, więc ten sposób nie będzie skuteczny. Lepszym wyjściem byłoby przetestowanie różnych procesorów w np. średnich detalach na mocnej karcie, by zobaczyć, czy i jakie zaszły zmiany w wydajności. Ale znowu – mało kto ma taką możliwość. Sprawdź zatem efekty po zmianie rozdzielczości. Jeśli np. w 1080p uzyskujesz (prawie) taką samą liczbę fps jak w 1440p, to znaczy, że problem stanowi procesor. Co ciekawe, może również okazać się, że nawet gdy testujemy daną grę w miejscu typowo graficznym, procesor może być ograniczeniem wydajności. Nawet w wyższych rozdzielczościach, 1440p i 4K, potrzebne jest odpowiednie CPU, co szczególnie widać na przykładzie chociażby Intel Core i3 i topowego GPU. We współczesnych grach cztery rdzenie (w tym i z HT/SMT) w wielu przypadkach nie są wystarczające do mocnych kart, i to wcale nie najnowszych generacji. Jeśli nadal masz wątpliwości, warto poszukać rzetelnych testów wydajności zarówno procesorów, jak i kart graficznych oraz podpytać ekspertów lub osoby bardziej zaznajomione z tematem np. na forach czy stronach internetowych i grupach społecznościowych. Najlepiej poznaj opinie różnych użytkowników – nigdy nie opieraj się tylko na jednej, która może wprowadzić Cię w błąd. Nic na tym nie stracisz, a możesz tylko zyskać dodatkową wiedzę, którą zawsze warto zweryfikować (albo przynajmniej spróbować). Jak rozpoznać, czy nasze połączenie CPU i GPU spisuje się źle? Gdy jako gracz zauważysz anomalie w postaci bardzo odmiennych wyników wydajności w różnych miejscach w danym tytule, zaczniesz się bez wątpienia zastanawiać: o co chodzi? Gdy zauważysz, że gra przez większość rozgrywki działa płynnie, natomiast w mieście pełnym NPC-ów (postaci niezależnych) spada ona drastycznie, to winowajcą nie będzie GPU. Wymiana tego podzespołu nic nie da, bo jego moc będzie blokowana przez procesor. Gdy rozgrywka nie jest satysfakcjonująca niezależnie od lokacji, Twoją uwagę powinna zwrócić karta graficzna. Jej wymiana może podnieść fps. Gdy ten komponent stanowi problem, możesz najpierw obniżyć detale i zobaczyć, czy przyniesie to pożądane efekty. Może jednak okazać się, że do danej gry zarówno procesor, jak i karta graficzna nie spełniają wymagań sprzętowych i wtedy konieczna będzie wymiana obu podzespołów. Zakup mocniejszego GPU może rozwiązać problem tylko połowicznie, ale wtedy jego wydajność ograniczać będzie przestarzałe i zbyt wolne CPU. Czy procesor zawsze musi być idealnie dobrany do karty graficznej? Procesor zwykle nie jest tak często wymienianym komponentem, jak np. karta graficzna. Czy zawsze trzeba idealnie dobrać CPU do GPU? I czy warto rozważyć przyszłościowy zakup procesora i jakie korzyści może przynieść taki wybór? Idealny tandem CPU i GPU to taki, który będzie idealny dla Ciebie Co to znaczy? Wiesz już, że dobór procesora do karty graficznej powinien być podyktowany tym, w co i jak grasz. W zależności od tego zainwestuj więcej w procesor lub kartę graficzną. Inaczej rozłóż budżet na CPU i GPU, jeśli grasz w strategie, zwłaszcza takie jak seria Total War. Wtedy kup mocniejszy procesor i słabszą kartę. Do takiego przeznaczenia podzespoły nie muszą się komponować się idealnie, ale nie popadaj w skrajności. Co innego, gdy grasz w gry wymagające przede wszystkim mocnego GPU. Wtedy nieco więcej pieniędzy przeznacz na kartę graficzną, ale – tak jak wcześniej wspomnieliśmy – z umiarem. Nie łącz np. Intel Core i3 z (prawie) topowym GeForce’em lub Radeonem. Gdy grasz w wysokich rozdzielczościach, zmiana procesora na nowszą generację może nie przynieść skoku wydajności w grach. Na przykład posiadacz Ryzena 5 3600X może nie zyskać żadnych korzyści w rozdzielczości 4K po wymianie na np. Ryzena 5 5600X. Wydaj wtedy nieco więcej na GPU. Nowsze CPU z kolei przyniosłoby poprawę wydajności przy dobrym GPU w 1080p. Pamiętaj, liczą się także Twoje potrzeby, a nie tylko ogólna wydajność podzespołów. Czy przyszłościowy zakup CPU ma sens? Dlaczego warto usiąść i chwilę zastanowić się nad tym, co nas czeka w przyszłości, przed wyborem CPU? Biorąc pod uwagę, że w konsolach obecnej generacji (PlayStation 5, Xbox Series X i Xbox Series S) sercem jest 8-rdzeniowy i 16-wątkowy procesor, warto rozważyć tak samo wyposażone CPU do komputera. Nawet jeśli zakupiony procesor nie będzie miał tak wydajnych rdzeni, jak jego następcy, to wystarczająca ich liczba może zaprocentować w przyszłych grach. Nowoczesne tytuły mogą dzięki temu lepiej działać. Może bowiem okazać się, że zbyt mała liczba rdzeni (wątków) ograniczy potem wydajność, czego przykładem w przeszłości były chociażby Assassin’s Creed: Origins, The Division 2 czy Battlefield V. Przykład procesora AMD Ryzen 5 1600X udowadnia, że czasem warto zainwestować z myślą o przyszłości. Przytoczony model dzięki konfiguracji 6-rdzeniowej i 12-wątkowej zestarzał się z godnością w przeciwieństwie do konkurencyjnego Intel Core i5-7600K z podobnego okresu. Dlaczego? Bo porównywalna w tamtym czasie jednostka Intela ma tylko 4 rdzenie i 4 wątki, co nie jest już wystarczające w nowoczesnych produkcjach, które wykorzystują więcej rdzeni. W tytułach stawiających mocniej na pojedynczy rdzeń Intel Core i5-7600K wypada często lepiej. W nowszych, czerpiących pełnymi garściami z wielordzeniowości grach Ryzen 5 1600X potrafi odstawać od swojego rywala. Jak bardzo? Niczym Usain Bolt od reszty zawodników podczas pamiętnego biegu na 100 metrów, który odbył się na Letnich Igrzyskach Olimpijskich 2008 w Pekinie. Ten model procesora „czerwonych” zestarzał się tak udanie, że AMD postanowiło nawet odświeżyć go jako Ryzen 5 1600 AF, który wykorzystuje usprawnioną architekturę (Zen+) i niższy proces technologiczny (12 nm zamiast 14 nm). Dzięki temu zbliżył się on wydajnością do konkurencyjnego Intel Core i5-9400F (znacznie nowszego niż Core i5-7600K). Podobnie może być za kilka lat, gdy na rynek zaczną trafiać gry tworzone z myślą wyłącznie o konsolach PS5 i Xbox Series X/S. Do tych gier konfiguracja 6/12 może już wypadać blado na tle 8/16. Bliżej temu do wróżenia z fusów herbacianych, chociaż takie myślenie ma solidne podstawy. Mocniejszy procesor otwiera też później ścieżkę do zakupu wydajniejszego GPU. Czasem można więc zainwestować więcej, ale rozsądnie – tak, by nie przesadzić ani w jedną, ani w drugą stronę. Dlaczego? Postęp w kolejnych generacjach trudno przewidzieć, więc niekoniecznie musi być to dobre rozwiązanie. Teraz jest łatwiej, bo jesteśmy po premierze nowych konsol, więc zakup np. Ryzena 7 5800X może się opłacić, zwłaszcza jeśli nie zamierzasz wymienić go w najbliższych latach. Czy może jednak przyszłościowy zakup procesora nie ma sensu? Jaka jest druga strona medalu, jeśli chodzi o przyszłościowy zakup procesora? Niestety, istnieje ryzyko, że moc procesora może nie być wystarczająca w grach za kilka lat, nawet jeśli wydaje się nam, że kupiliśmy CPU na długi okres. Duża liczba rdzeni może sprawić, że lepiej się zestarzeje, ale może być trudno później zakryć pozostałe niedoskonałości lub braki, które wyjdą z biegiem czasu. Z rdzeniami też może nie być tak różowo. Sony i Microsoft chcą jeszcze przez długie lata wspierać starsze konsole. Zanim będzie odpowiednio duża liczba gier, które w pełni skorzystają z dobrodziejstw procesora 8-rdzeniowego i 16-wątkowego, mogą minąć wieki. Wiesz już, do czego zmierzamy, prawda? Wybór takiego CPU może mieć mniejszą zasadność, bo zbyt brzydko się zestarzeje, nim faktycznie przyda się w grach. Jest to bardziej skomplikowane, niż się wydaje, ponieważ zależy od wielu czynników: jak gry będą wykorzystywać rdzenie, jaki postęp nas czeka w architekturach CPU i jak wiele tytułów skorzysta z nowości. Progres wydajnościowy nie był w ostatnich latach tak duży, jak w przypadku kart graficznych, więc ryzyko, że procesor danej generacji okaże się zbyt słabym ogniwem po premierze kolejnej, jest niższe niż w pierwszej dekadzie XXI wieku. W ramach podsumowania warto jeszcze dodać, że jeśli planujesz przesiadkę na monitor o wyższej rozdzielczości, to przesadna inwestycja w procesor nie ma większego sensu. Wiesz w końcu, że wraz z jej wzrostem znaczenie tego podzespołu maleje, a na główny plan trafia karta graficzna. Jest szansa, że CPU, które może nie spełniać oczekiwań w 1080p, bez problemu wystarczy do rozgrywki w 4K. Jakie mogą być skutki złego dopasowania CPU i GPU? Niewłaściwy dobór procesora do karty graficznej może przynieść fatalne konsekwencje. Jeśli np. połączysz Intel Celeron lub Pentium z GeForce’em RTX 3080, to w grach taki zestaw może spisywać się wyraźnie gorzej niż połączenie procesora Intel Core i9-11900K i RTX-a 3060. Nie będzie to dobry pomysł. Im gorzej dobierzesz te podzespoły, tym komfort rozgrywki będzie mniejszy. Skoro CPU może ograniczać wydajność GPU nawet w miejscach typowo graficznych, nie dobieraj procesora z najniższej półki do karty z najwyższej (to, rzecz jasna, skrajny przykład dla lepszego zobrazowania). Jak jednak wspomnieliśmy, podzespoły nie muszą być idealnie dobrane, to wszystko zależy od wielu czynników. Jeśli kupisz mocną kartę graficzną, ale Twój obecny procesor tylko w niewielkim stopniu ją ogranicza, to nic złego się nie stanie. Nie będziesz po prostu wykorzystał w 100% jej mocy, ale w grach, w których uzyskujesz np. 165 zamiast 180 klatek na sekundę, nie zrobi to chyba wielkiej różnicy, nieprawdaż? Poza tym, gdy zmienisz potem CPU, problem zniknie. Z dwojga złego lepiej mieć zbyt mocny procesor względem karty graficznej niż na odwrót. Poza wyjątkiem, gdy różnice są stosunkowo niewielkie albo wręcz nieodczuwalne. Nawet jeśli są gry, w których procesor przekłada się na większą rozbieżność w wynikach, to jest w nich na tyle dużo klatek na sekundę, że ich liczba przestaje mieć znaczenie. Może stać się też tak, że nawet jeśli w jakiejś grze procesor będzie stanowił problem, to objawi się tylko w pojedynczych lokacjach, np. w dużym mieście pełnym NPC-ów, a w innych przypadkach, zależnych głównie od mocy GPU, gra będzie chodziła bez większych zgrzytów. Musisz odpowiedzieć sobie na pytanie: czy taki scenariusz stanowi dla Ciebie problem, który należy rozwiązać? Najlepsze połączenie procesora i karty graficznej Recepta jest prosta. Staraj się dobierać niskiej klasy procesor do niskobudżetowej karty graficznej, średnie CPU do przeciętnego GPU itd. Nie trzeba się jednak trzymać sztywno tych granic. W końcu jeśli grasz w gry zależne w większym stopniu od karty graficznej, zdecyduj się na nieco mocniejszy układ nawet przy nieco słabszym procesorze. Takie połączenie będzie wtedy jak najbardziej uzasadnione. Podsumowując, kluczem jest dobór zrównoważonych podzespołów, tak by jeden nie odstawał znacząco wydajnością od drugiego. Za liczbę fps nie odpowiada wyłącznie karta graficzna – w zależności od gry czy scenariusza większy lub mniejszy wpływ na wartość klatek na sekundę ma także procesor (i w mniej odczuwalnym stopniu pamięć RAM). Mamy nadzieję, że nasz poradnik ułatwi Ci wybór odpowiednich komponentów. Przed decyzją o zakupie procesora do określonej karty graficznej, zapoznaj się z jego specyfikacją i testami wydajności w tych grach, w których ma Ci on służyć. To zdecydowanie ułatwi Ci wybór i dopasowanie CPU do GPU. Przeczytaj więcej o polecanych procesorach do gier na portalu Geex Odkryj najlepsze procesory w sklepie x-kom Sprawdź pełną ofertę kart graficznych w x-komieWitam. Mam takie pytanie mam kartę graficzna GeForce 9800 GTX+ i chciałbym w grze wykorzystać z niej 100% jej mocy, bo gdy gram na ustawieniach niskich to wykorzystuje 50% mocy gra się delikatnie przycina, a gdy biorę na ultra to gra tez delikatnie się przycina ale wtedy wykorzystuje 80% czy da r
PNY GeForce RTX4070TI XLR8 Gaming Verto OC 12GB GDR6X (VCG4070T12TFXXPB1O) od 4048,99 zł Sprawdź lub napisz opinię Karta graficzna pamięć 12GB RAM, Współbieżność Nie posiada, Wyjścia HDMI,
Karta się nudzi na poziomie 50-70% wykorzystania (maksymalny fps w novigradzie jest w okolicach 80 bez względu czy wbiję 720p low czy 1080p low), po wyłączeniu AA skacze fps i wykorzystanie gpu - przynajmniej na rx5600xt.
Zazwyczaj poprzez sprawdzenie lokalizacji złącza, do którego jest podłączony monitor, można w łatwy sposób określić jaki typ karty graficznej wykorzystuje dany komputer. Jeśli obok miejsca gdzie podłączyliśmy monitor znajdują się też takie złącza jak USB, albo RJ-45, to jest to zintegrowana karta graficzna.