Question Pourquoi changer 0.1f à 0 ralentit les performances de 10x?


Pourquoi ce bout de code,

const float x[16] = {  1.1,   1.2,   1.3,     1.4,   1.5,   1.6,   1.7,   1.8,
                       1.9,   2.0,   2.1,     2.2,   2.3,   2.4,   2.5,   2.6};
const float z[16] = {1.123, 1.234, 1.345, 156.467, 1.578, 1.689, 1.790, 1.812,
                     1.923, 2.034, 2.145,   2.256, 2.367, 2.478, 2.589, 2.690};
float y[16];
for (int i = 0; i < 16; i++)
{
    y[i] = x[i];
}

for (int j = 0; j < 9000000; j++)
{
    for (int i = 0; i < 16; i++)
    {
        y[i] *= x[i];
        y[i] /= z[i];
        y[i] = y[i] + 0.1f; // <--
        y[i] = y[i] - 0.1f; // <--
    }
}

courir plus de 10 fois plus vite que le bit suivant (identique sauf mention contraire)?

const float x[16] = {  1.1,   1.2,   1.3,     1.4,   1.5,   1.6,   1.7,   1.8,
                       1.9,   2.0,   2.1,     2.2,   2.3,   2.4,   2.5,   2.6};
const float z[16] = {1.123, 1.234, 1.345, 156.467, 1.578, 1.689, 1.790, 1.812,
                     1.923, 2.034, 2.145,   2.256, 2.367, 2.478, 2.589, 2.690};
float y[16];
for (int i = 0; i < 16; i++)
{
    y[i] = x[i];
}

for (int j = 0; j < 9000000; j++)
{
    for (int i = 0; i < 16; i++)
    {
        y[i] *= x[i];
        y[i] /= z[i];
        y[i] = y[i] + 0; // <--
        y[i] = y[i] - 0; // <--
    }
}

lors de la compilation avec Visual Studio 2010 SP1. (Je n'ai pas testé avec d'autres compilateurs.)


1359
2018-02-16 15:58


origine


Réponses:


Bienvenue dans le monde de virgule flottante dénormalisée! Ils peuvent faire des ravages sur la performance !!!

Les nombres dénormaux (ou subnormaux) sont une sorte de piratage pour obtenir des valeurs supplémentaires très proches de zéro en dehors de la représentation en virgule flottante. Les opérations sur le flottant dénormalisé peuvent être des dizaines à des centaines de fois plus lent que sur le flottant normalisé. En effet, de nombreux processeurs ne peuvent pas les gérer directement et doivent les piéger et les résoudre à l'aide du microcode.

Si vous imprimez les nombres après 10 000 itérations, vous verrez qu'ils ont convergé vers des valeurs différentes selon que 0 ou 0.1 est utilisé.

Voici le code de test compilé sur x64:

int main() {

    double start = omp_get_wtime();

    const float x[16]={1.1,1.2,1.3,1.4,1.5,1.6,1.7,1.8,1.9,2.0,2.1,2.2,2.3,2.4,2.5,2.6};
    const float z[16]={1.123,1.234,1.345,156.467,1.578,1.689,1.790,1.812,1.923,2.034,2.145,2.256,2.367,2.478,2.589,2.690};
    float y[16];
    for(int i=0;i<16;i++)
    {
        y[i]=x[i];
    }
    for(int j=0;j<9000000;j++)
    {
        for(int i=0;i<16;i++)
        {
            y[i]*=x[i];
            y[i]/=z[i];
#ifdef FLOATING
            y[i]=y[i]+0.1f;
            y[i]=y[i]-0.1f;
#else
            y[i]=y[i]+0;
            y[i]=y[i]-0;
#endif

            if (j > 10000)
                cout << y[i] << "  ";
        }
        if (j > 10000)
            cout << endl;
    }

    double end = omp_get_wtime();
    cout << end - start << endl;

    system("pause");
    return 0;
}

Sortie:

#define FLOATING
1.78814e-007  1.3411e-007  1.04308e-007  0  7.45058e-008  6.70552e-008  6.70552e-008  5.58794e-007  3.05474e-007  2.16067e-007  1.71363e-007  1.49012e-007  1.2666e-007  1.11759e-007  1.04308e-007  1.04308e-007
1.78814e-007  1.3411e-007  1.04308e-007  0  7.45058e-008  6.70552e-008  6.70552e-008  5.58794e-007  3.05474e-007  2.16067e-007  1.71363e-007  1.49012e-007  1.2666e-007  1.11759e-007  1.04308e-007  1.04308e-007

//#define FLOATING
6.30584e-044  3.92364e-044  3.08286e-044  0  1.82169e-044  1.54143e-044  2.10195e-044  2.46842e-029  7.56701e-044  4.06377e-044  3.92364e-044  3.22299e-044  3.08286e-044  2.66247e-044  2.66247e-044  2.24208e-044
6.30584e-044  3.92364e-044  3.08286e-044  0  1.82169e-044  1.54143e-044  2.10195e-044  2.45208e-029  7.56701e-044  4.06377e-044  3.92364e-044  3.22299e-044  3.08286e-044  2.66247e-044  2.66247e-044  2.24208e-044

Notez comment dans la deuxième course, les nombres sont très proches de zéro.

Les nombres dénormalisés sont généralement rares et donc la plupart des processeurs n'essaient pas de les gérer efficacement.


Pour démontrer que cela a tout à voir avec les nombres dénormalisés, si nous rincer les dénormaux à zéro en ajoutant ceci au début du code:

_MM_SET_FLUSH_ZERO_MODE(_MM_FLUSH_ZERO_ON);

Ensuite, la version avec 0 n'est plus 10x plus lent et devient réellement plus rapide. (Cela nécessite que le code soit compilé avec SSE activé.)

Cela signifie que plutôt que d'utiliser ces valeurs presque nulles de précision inférieure, nous arrondissons à zéro à la place.

Timings: Core i7 920 à 3,5 GHz:

//  Don't flush denormals to zero.
0.1f: 0.564067
0   : 26.7669

//  Flush denormals to zero.
0.1f: 0.587117
0   : 0.341406

En fin de compte, cela n'a vraiment rien à voir avec le fait qu'il s'agisse d'un nombre entier ou flottant. le 0 ou 0.1f est converti / stocké dans un registre en dehors des deux boucles. Cela n'a donc aucun effet sur les performances.


1470
2018-02-16 16:20



En utilisant gcc et l'application d'un diff à l'assemblage généré ne donne que cette différence:

73c68,69
<   movss   LCPI1_0(%rip), %xmm1
---
>   movabsq $0, %rcx
>   cvtsi2ssq   %rcx, %xmm1
81d76
<   subss   %xmm1, %xmm0

le cvtsi2ssq l'un étant 10 fois plus lent en effet.

Apparemment, le float la version utilise un XMM registre chargé de la mémoire, tandis que le int version convertit un réel int valeur 0 à float en utilisant le cvtsi2ssq instruction, prendre beaucoup de temps. Qui passe -O3 gcc n'aide pas. (gcc version 4.2.1.)

(En utilisant double au lieu de float n'a pas d'importance, sauf qu'il change la cvtsi2ssq dans une cvtsi2sdq.)

Mettre à jour 

Certains tests supplémentaires montrent que ce n'est pas nécessairement le cvtsi2ssq instruction. Une fois éliminé (en utilisant int ai=0;float a=ai; et en utilisant a au lieu de 0), la différence de vitesse reste. Donc, @Mysticial a raison, les flotteurs dénormalisés font la différence. Cela peut être vu en testant des valeurs entre 0 et 0.1f. Le point tournant dans le code ci-dessus est approximativement à 0.00000000000000000000000000000001, quand les boucles prennent soudainement 10 fois plus longtemps.

Mise à jour << 1 

Une petite visualisation de ce phénomène intéressant:

  • Colonne 1: un flottant, divisé par 2 pour chaque itération
  • Colonne 2: la représentation binaire de ce flotteur
  • Colonne 3: le temps nécessaire pour additionner ce flotteur 1e7 fois

Vous pouvez voir clairement l'exposant (les 9 derniers bits) changer à sa valeur la plus basse, quand la dénormalisation s'installe. À ce moment-là, l'addition simple devient 20 fois plus lente.

0.000000000000000000000000000000000100000004670110: 10111100001101110010000011100000 45 ms
0.000000000000000000000000000000000050000002335055: 10111100001101110010000101100000 43 ms
0.000000000000000000000000000000000025000001167528: 10111100001101110010000001100000 43 ms
0.000000000000000000000000000000000012500000583764: 10111100001101110010000110100000 42 ms
0.000000000000000000000000000000000006250000291882: 10111100001101110010000010100000 48 ms
0.000000000000000000000000000000000003125000145941: 10111100001101110010000100100000 43 ms
0.000000000000000000000000000000000001562500072970: 10111100001101110010000000100000 42 ms
0.000000000000000000000000000000000000781250036485: 10111100001101110010000111000000 42 ms
0.000000000000000000000000000000000000390625018243: 10111100001101110010000011000000 42 ms
0.000000000000000000000000000000000000195312509121: 10111100001101110010000101000000 43 ms
0.000000000000000000000000000000000000097656254561: 10111100001101110010000001000000 42 ms
0.000000000000000000000000000000000000048828127280: 10111100001101110010000110000000 44 ms
0.000000000000000000000000000000000000024414063640: 10111100001101110010000010000000 42 ms
0.000000000000000000000000000000000000012207031820: 10111100001101110010000100000000 42 ms
0.000000000000000000000000000000000000006103515209: 01111000011011100100001000000000 789 ms
0.000000000000000000000000000000000000003051757605: 11110000110111001000010000000000 788 ms
0.000000000000000000000000000000000000001525879503: 00010001101110010000100000000000 788 ms
0.000000000000000000000000000000000000000762939751: 00100011011100100001000000000000 795 ms
0.000000000000000000000000000000000000000381469876: 01000110111001000010000000000000 896 ms
0.000000000000000000000000000000000000000190734938: 10001101110010000100000000000000 813 ms
0.000000000000000000000000000000000000000095366768: 00011011100100001000000000000000 798 ms
0.000000000000000000000000000000000000000047683384: 00110111001000010000000000000000 791 ms
0.000000000000000000000000000000000000000023841692: 01101110010000100000000000000000 802 ms
0.000000000000000000000000000000000000000011920846: 11011100100001000000000000000000 809 ms
0.000000000000000000000000000000000000000005961124: 01111001000010000000000000000000 795 ms
0.000000000000000000000000000000000000000002980562: 11110010000100000000000000000000 835 ms
0.000000000000000000000000000000000000000001490982: 00010100001000000000000000000000 864 ms
0.000000000000000000000000000000000000000000745491: 00101000010000000000000000000000 915 ms
0.000000000000000000000000000000000000000000372745: 01010000100000000000000000000000 918 ms
0.000000000000000000000000000000000000000000186373: 10100001000000000000000000000000 881 ms
0.000000000000000000000000000000000000000000092486: 01000010000000000000000000000000 857 ms
0.000000000000000000000000000000000000000000046243: 10000100000000000000000000000000 861 ms
0.000000000000000000000000000000000000000000022421: 00001000000000000000000000000000 855 ms
0.000000000000000000000000000000000000000000011210: 00010000000000000000000000000000 887 ms
0.000000000000000000000000000000000000000000005605: 00100000000000000000000000000000 799 ms
0.000000000000000000000000000000000000000000002803: 01000000000000000000000000000000 828 ms
0.000000000000000000000000000000000000000000001401: 10000000000000000000000000000000 815 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 42 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 42 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 44 ms

Une discussion équivalente sur ARM peut être trouvée dans la question Stack Overflow Point flottant dénormalisé en Objective-C?.


399
2018-02-16 16:19



C'est dû à l'utilisation en virgule flottante dénormalisée. Comment se débarrasser à la fois et la pénalité de performance? Ayant parcouru Internet pour trouver des moyens de tuer des nombres dénormaux, il semble qu'il n'y ait pas de «meilleure» façon de le faire pour le moment. J'ai trouvé ces trois méthodes qui peuvent fonctionner le mieux dans des environnements différents:

  • Peut ne pas fonctionner dans certains environnements GCC:

    // Requires #include <fenv.h>
    fesetenv(FE_DFL_DISABLE_SSE_DENORMS_ENV);
    
  • Peut ne pas fonctionner dans certains environnements Visual Studio: 1

    // Requires #include <xmmintrin.h>
    _mm_setcsr( _mm_getcsr() | (1<<15) | (1<<6) );
    // Does both FTZ and DAZ bits. You can also use just hex value 0x8040 to do both.
    // You might also want to use the underflow mask (1<<11)
    
  • Apparaît pour travailler dans GCC et Visual Studio:

    // Requires #include <xmmintrin.h>
    // Requires #include <pmmintrin.h>
    _MM_SET_FLUSH_ZERO_MODE(_MM_FLUSH_ZERO_ON);
    _MM_SET_DENORMALS_ZERO_MODE(_MM_DENORMALS_ZERO_ON);
    
  • Le compilateur Intel a des options pour désactiver les dénormatifs par défaut sur les processeurs Intel modernes. Plus de détails ici

  • Commutateurs du compilateur -ffast-math, -msse ou -mfpmath=sse va désactiver les dénormals et faire quelques autres choses plus rapidement, mais malheureusement aussi faire beaucoup d'autres approximations qui pourraient casser votre code. Testez soigneusement! L'équivalent de fast-math pour le compilateur Visual Studio est /fp:fast mais je n'ai pas pu confirmer si cela désactive aussi les dénormaux.1


29
2018-02-26 12:15



En gcc vous pouvez activer FTZ et DAZ avec ceci:

#include <xmmintrin.h>

#define FTZ 1
#define DAZ 1   

void enableFtzDaz()
{
    int mxcsr = _mm_getcsr ();

    if (FTZ) {
            mxcsr |= (1<<15) | (1<<11);
    }

    if (DAZ) {
            mxcsr |= (1<<6);
    }

    _mm_setcsr (mxcsr);
}

utilisez également les commutateurs gcc: -msse -mfpmath = sse

(crédits correspondants à Carl Hetherington [1])

[1] http://carlh.net/plugins/denormals.php


19
2017-10-02 04:40



Le commentaire de Dan Neely devrait être développé en une réponse:

Ce n'est pas la constante zéro 0.0f cela est dénormalisé ou provoque un ralentissement, ce sont les valeurs qui approchent zéro à chaque itération de la boucle. À mesure qu'ils se rapprochent de zéro, ils ont besoin de plus de précision pour représenter et ils se dénormalisent. Voici les y[i] valeurs. (Ils s'approchent de zéro parce que x[i]/z[i] est inférieur à 1,0 pour tous i.)

La différence cruciale entre les versions lente et rapide du code est la déclaration y[i] = y[i] + 0.1f;. Dès que cette ligne est exécutée à chaque itération de la boucle, la précision supplémentaire dans le flottant est perdue, et la dénormalisation nécessaire pour représenter cette précision n'est plus nécessaire. Ensuite, les opérations en virgule flottante sur y[i] reste rapide car ils ne sont pas dénormalisés.

Pourquoi la précision supplémentaire est-elle perdue lorsque vous ajoutez 0.1f? Parce que les nombres à virgule flottante ont seulement autant de chiffres significatifs. Supposons que vous avez suffisamment de mémoire pour trois chiffres significatifs, puis 0.00001 = 1e-5, et 0.00001 + 0.1 = 0.1, au moins pour cet exemple de format flottant, car il n'a pas de place pour stocker le bit le moins significatif dans 0.10001.

En bref, y[i]=y[i]+0.1f; y[i]=y[i]-0.1f; Ce n'est pas le non-op que vous pourriez penser que c'est.

Mystical a dit cela aussi: le contenu des flottants est important, pas seulement le code d'assemblage.


0
2017-08-01 13:32