@regehr@mastodon.social Every serious study (both from independent researchers and from vendors themselves) that I've ever seen (and I'm up to 5 or so at this point), broadly, supports this, with some caveats.
It's not "no difference", but for server/application cores, what differences there are typically somewhere in the single-digit %. You can always find pathological examples, but typically it's not that much.
There is a real cost to x86s many warts but it's mostly in design/validation cost and toolchains.
Sprawdziłem na gcc i clangu. Żaden z nich nie wstawia sztucznych skoków jeśli wymuszę kompilację na mikroarchitekturę Tremont.
Pewnie za 10…20 lat będzie.
Moim zdaniem nie będzie. Atom nie jest tak popularnym prockiem, żeby naprawiać słabą wydajność pojedynczej generacji.
To może zależeć od jednego znudzonego programisty, albo AI.