@regehr@mastodon.social Every serious study (both from independent researchers and from vendors themselves) that I've ever seen (and I'm up to 5 or so at this point), broadly, supports this, with some caveats.
It's not "no difference", but for server/application cores, what differences there are typically somewhere in the single-digit %. You can always find pathological examples, but typically it's not that much.
There is a real cost to x86s many warts but it's mostly in design/validation cost and toolchains.
Nie wiem czy znaczenie ma nisza. Jeśli obsługuje optymalizację dla danej rodziny to powinien. Chyba, że logika tego jest jakaś trudna, bo nie mogą czegoś przewidzieć na etapie generacji.
Ostatecznie wstawiają te skoki automatycznie.
Nie wiem czy znaczenie ma nisza. Jeśli obsługuje optymalizację dla danej rodziny to powinien. Chyba, że logika tego jest jakaś trudna, bo nie mogą czegoś przewidzieć na etapie generacji.
Sprawdziłem na gcc i clangu. Żaden z nich nie wstawia sztucznych skoków jeśli wymuszę kompilację na mikroarchitekturę Tremont.
Pewnie za 10…20 lat będzie.
Moim zdaniem nie będzie. Atom nie jest tak popularnym prockiem, żeby naprawiać słabą wydajność pojedynczej generacji.
To może zależeć od jednego znudzonego programisty, albo AI.