Parametry procesorów - teoretyczna wydajność procesora

0

GTX 750; obecnie podaje mi: 16 x 48, a na innych sterach jest inaczej.. chyba 24 x 32.

nVidia podaje, że rdzeń GM107 na którym bazuje GTX 750 i GTX 750 Ti ma 40 texture units i 16 ROPs. Nie da się wycisnąć więcej, no chyba, że wiesz więcej niż sama nVidia. Oto dokumentacja od samej nVidii:
https://international.download.nvidia.com/geforce-com/international/pdfs/GeForce-GTX-750-Ti-Whitepaper.pdf

Skąd ściągnąłeś te sterowniki? Z oficjalnej strony nVidii? Nie podmienił ci nikt firmware? Chińczycy potrafią wgrać firmware który oszukuje programy typu GPU-Z (do momentu w którym autorzy GPU-Z nie zdołają wykryć oszukanego firmware). Przykład tutaj:

Gratuluję bycia wydymanym przez Chińczyków :) Oszukanie GPU-Z nie wpływa w żaden sposób na wydajność karty.

GPU-Z sprawdza ilość TMU i ROP w karcie poprzez wyciąganie numerów identyfikacyjnych z firmware/ sterowników i wyszukiwanie ich w swojej bazie modeli kart graficznych. Firmware/ sterowniki możesz podmienić i oszukać w ten sposób GPU-Z - mając inne ID GPU-Z poda ci inne dane. Tylko co z tego? Sprzętu to i tak nie obchodzi.

Te ropy to nie są fizyczne parametry, lecz... takie tylko umowne - z tradycji;
był okres w rozwoju kart graficznych, gdy to było fizycznie zaklepane... z 10 lat temu?

Co było zaklepane i do jakiej wartości?

0
Wibowit napisał(a):

GTX 750; obecnie podaje mi: 16 x 48, a na innych sterach jest inaczej.. chyba 24 x 32.

nVidia podaje, że rdzeń GM107 na którym bazuje GTX 750 i GTX 750 Ti ma 40 texture units i 16 ROPs. Nie da się wycisnąć więcej, no chyba, że wiesz więcej niż sama nVidia. Oto dokumentacja od samej nVidii:
https://international.download.nvidia.com/geforce-com/international/pdfs/GeForce-GTX-750-Ti-Whitepaper.pdf

faktycznie tam jest tylko 32 a nie 40, co daje poprawną wydajność:1 GHz x 32 x 16 x 2 = 1024 Gflops.

Skąd ściągnąłeś te sterowniki? Z oficjalnej strony nVidii? Nie podmienił ci nikt firmware? Chińczycy potrafią wgrać firmware który oszukuje programy typu GPU-Z (do momentu w którym autorzy GPU-Z nie zdołają wykryć oszukanego firmware). Przykład tutaj:

Gratuluję bycia wydymanym przez Chińczyków :) Oszukanie GPU-Z nie wpływa w żaden sposób na wydajność karty.

GPU-Z sprawdza ilość TMU i ROP w karcie poprzez wyciąganie numerów identyfikacyjnych z firmware/ sterowników i wyszukiwanie ich w swojej bazie modeli kart graficznych. Firmware/ sterowniki możesz podmienić i oszukać w ten sposób GPU-Z - mając inne ID GPU-Z poda ci inne dane. Tylko co z tego? Sprzętu to i tak nie obchodzi.

Dowolny program do GPU pokazuje te same liczby, bo jest ściągane ze sterownika, a nie inaczej.

Te ropy to nie są fizyczne parametry, lecz... takie tylko umowne - z tradycji;
był okres w rozwoju kart graficznych, gdy to było fizycznie zaklepane... z 10 lat temu?

Co było zaklepane i do jakiej wartości?

rops x tmus = #cores było zaklepane w poprzedniej generacji, czyli z 10 lat temu.

Obecnie to jest zupełnie niezależne, ale i chyba fałszowane przez producentów - w celach reklamowych, co chyba widać po danych, np.:

https://www.game-debate.com/gpu/index.php?gid=796&gid2=3261&compare=AMD%20Radeon%20HD%207770%201GB%20GDDR5-vs-Nvidia%20GeForce%20GTX%20980%204GB
GTX 980: shaders = 2048, natomiast TMU = 128, i ROP = 64
co sprawdzamy: 2048 / 128 = 16 rops, i pewnie tyle tam tego faktycznie jest, czyli 4 razy mniej od tego co tam podają.

radeon 7770: 40 x 16 = 640 - jest OK.

inny przykład:
GTX 1080: 3584, i ROPs = 224, stąd TMUs = 3584/224 = 16 - jak zwykle, bo tyle wystarczy;
a tam podają aż: ROP = 88... bardzo śmieszne.

Generalnie nie ma tam żadnych Rops ani Tmus - są tylko te rejestry... tysiące, które liczą te wektorki hurtowo, i cześć - reszta to zawracanie d**y.

0

Obecnie to jest zupełnie niezależne, ale i chyba fałszowane przez producentów - w celach reklamowych, co chyba widać po danych, np.:

Skoro tak łatwo udowodnić oszustwo to nVidia już dawno przegrałaby w sądzie przy pozwie zbiorowym.

inny przykład:
GTX 1080: 3584, i ROPs = 224, stąd TMUs = 3584/224 = 16 - jak zwykle, bo tyle wystarczy;
a tam podają aż: ROP = 88... bardzo śmieszne.

Kolejny raz twoje wzorki się nie sprawdzają, bo są z d**y wzięte.

Generalnie nie ma tam żadnych Rops ani Tmus - są tylko te rejestry... tysiące, które liczą te wektorki hurtowo, i cześć - reszta to zawracanie d**y.

Skoro nie ma ROPs i TMUs to po co je liczysz i mnożysz, a potem jeszcze nie zgadzasz się z wynikiem?

Dowolny program do GPU pokazuje te same liczby, bo jest ściągane ze sterownika, a nie inaczej.

Tak? Żaden z tych programów nie jest napisany ani w kawałku przez nVidię. Pokaż mi jak wyciągnąć ilość ROPów i TMU ze sterownika nVidii.

0
Wibowit napisał(a):

Obecnie to jest zupełnie niezależne, ale i chyba fałszowane przez producentów - w celach reklamowych, co chyba widać po danych, np.:

Skoro tak łatwo udowodnić oszustwo to nVidia już dawno przegrałaby w sądzie przy pozwie zbiorowym.

Nie jest to wielkie oszustwo, lecz raczej taka dodatkowa informacja dla miłośników starszych kart:
oni patrzą nadal na te numerki, więc im serwują: ROP = 88, co stanowi jakieś tam porównanie w stosunku do tych starszych, gdzie było tylko 16;
a tu nadal jest 16, tyle że częstotliwości poszły do przodu... więc tyle szybciej to jedzie: 88/16 = 5.5 - za darmo.

Tak? Żaden z tych programów nie jest napisany ani w kawałku przez nVidię. Pokaż mi jak wyciągnąć ilość ROPów i TMU ze sterownika nVidii.

Sobie poszukaj w google jak się to robi... pewnie w gimnazjach produkują takie śmieszne programiki jak ten GPU-Z.
Dwa dni roboty dla programisty.

0

Reasumując:

  • twierdzisz, że da się zmienić konfigurację TMU i ROP programowo, a programy typu GPU-Z (pokazujące często dane z czapy) są w tej sprawie autorytetem
  • według ciebie TMU x ROP = ilość shaderów
  • ten wzór jednak w większości przypadków nie działa
  • według ciebie ROP jest zawsze = 16, a wartości podawane przez producentów to bujda
  • skoro zmieniłeś ilość TMU w karcie to znaczy, że zmieniłeś także ilość shaderów
  • ergo: podmianą firmware jesteś w stanie zmienić ilość ROPów, TMU i shaderów na karcie - co jeszcze?

Ponadto - nie odniosłeś się do posta z tabelką: Parametry procesorów - teoretyczna wydajność procesora

0
Wibowit napisał(a):

Reasumując:

  • twierdzisz, że da się zmienić konfigurację TMU i ROP programowo, a programy typu GPU-Z (pokazujące często dane z czapy) są w tej sprawie autorytetem
  • według ciebie TMU x ROP = ilość shaderów
  • ten wzór jednak w większości przypadków nie działa
  • według ciebie ROP jest zawsze = 16, a wartości podawane przez producentów to bujda
  • skoro zmieniłeś ilość TMU w karcie to znaczy, że zmieniłeś także ilość shaderów
  • ergo: podmianą firmware jesteś w stanie zmienić ilość ROPów, TMU i shaderów na karcie - co jeszcze?

Ponadto - nie odniosłeś się do posta z tabelką: Parametry procesorów - teoretyczna wydajność procesora

Z grubsza tak to wygląda.

Finalizują podaję przepis: jak wybrać dobrą katę graficzną?

Wystarczy sprawdzić przepustowość pamięci, bo reszta parametrów jest tu dopasowywana do tej przepustowości.

  • kara o przepustowości poniżej: 60 GB/s (obecnie raczej z 200), będzie słabiutka - niezależnie od liczby ropów, shaderów, itp. fikcyjnych parametrów.
  • kara o przepustowości rzędu: 500 GB/s, będzie szybka - niezależnie od liczby pinów, bitów, snopów, i innych reklamowanych bzdetów.

ewentualnie można jeszcze sprawdzić:
#Gflops / 16 = ~Ram spid -> bo tak powinna mieć każda normalna karta;
z uwagi że na 1 piksel potrzeba zwykle minimum z 16 operacji, czyli flopsów.

zatem gdy będzie istotnie inaczej, wtedy wiadomo że to jest szajs (szmelc złożony z odpadów), a nie karta graficzna.

0

Finalizują podaję przepis: jak wybrać dobrą katę graficzną?
Wystarczy sprawdzić przepustowość pamięci, bo reszta parametrów jest tu dopasowywana do tej przepustowości.

No to porównajmy.
Radeon R9 Fury X - przepustowość VRAM 512 GB/s
GeForce RTX 2080 - przepustowość VRAM 448 GB/s

Wyniki wydajności: https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/33.html
GeForce jest prawie 2x wydajniejszy w grach, a według twoich obliczeń powinien być wyraźnie wolniejszy.

0
Wibowit napisał(a):

Finalizują podaję przepis: jak wybrać dobrą katę graficzną?
Wystarczy sprawdzić przepustowość pamięci, bo reszta parametrów jest tu dopasowywana do tej przepustowości.

No to porównajmy.
Radeon R9 Fury X - przepustowość VRAM 512 GB/s
GeForce RTX 2080 - przepustowość VRAM 448 GB/s

Wyniki wydajności: https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/33.html
GeForce jest prawie 2x wydajniejszy w grach, a według twoich obliczeń powinien być wyraźnie wolniejszy.

W zasadzie nieistotna różnica, zresztą należy porównać także i ceny.

W przypadku przesadnie teksturowanych gier, liczba operacji na piksel wzrasta z tych 16, do np. aż 60,
więc wiadomo, że teraz ram ma już mniejsze znaczenie;
należałoby użyć czynnik 64 - czyli faktyczną liczbę operacji na piksel, bo akurat tyle tego jest w nowszych grach - bardziej realistyczne efekty.

Co można sobie i tak darować - zredukować/wyłączyć w opcjach gry,
bo gracz nie widzi, ani nie odczuwa takich niuansów w trakcie gry.

1 użytkowników online, w tym zalogowanych: 0, gości: 1