2016-09-29 8 views
4

が(指数関数的に)、一般にerfcxによって指定相補誤差関数を、スケーリングされたerfcx(X)として数学的に定義される:= E X ERFC(x)です。それは物理学だけでなく化学の拡散問題で頻繁に起こる。 MATLABGNU Octaveのようないくつかの数学的環境はこの関数を提供しますが、それはerf()erfc()しか提供しないC標準の数学ライブラリにはありません。正確な計算は、erfcx()

実現することは可能ですが、自分自身のerfcx()数学的な定義に直接基づいて、理由は正の半平面内の限られた入力ドメインに対するこの唯一の作品は、適度な大きさの引数のerfc()がアンダーフロー、exp()オーバーフローは、述べたようにしながら、例えば、this questionである。

Cで使用する場合、this questionへの応答として指摘されているように、Faadeeva packageのようなオープンソースの実装を一部変更することができます。しかし、これらの実装は、通常、与えられた浮動小数点形式に対して完全な精度を提供しません。例えば、2 の試験ベクトルを用いた試験では、Faadeevaパッケージによって提供される最大誤差は、正の半平面では8.41 ulpsであり、負の半平面では511.68 ulpsであると示されている。

Intel's Vector MathライブラリのLAプロファイルの算術関数の精度限界に対応する正確な実装のための妥当な範囲は4 ulpsです。これは、自明でない数学関数実装の妥当な境界であることがわかりました。良好な精度と良好な性能が要求される。

erfcx()と対応する単精度バージョンerfcxf()は、C標準の数学ライブラリのみを使用し、外部ライブラリを必要とせずに正確に実装できますか? Cのfloat nad doubleの型は、IEEE 754-2008 binary32binary64浮動小数点型にマップされていると仮定できます。現時点では、すべての主要なプロセッサー・アーキテクチャーでサポートされているため、融合乗加算演算(FMA)のハードウェア・サポートを前提とすることができます。

答えて

2

私がこれまでに以下の論文に基づいて発見したerfcx()実施するための最良のアプローチ:

MMシェパードとJG Laframboise、「チェビシェフ近似の(1 + 2×)のexp(X ) erfc x in 0≦x <∞。計算の数学、36巻、第153号、1981年1月、頁249-253 (online)

紙は単純多項式に適しているしっかり有界ヘルパー機能にスケーリング相補誤差関数をマップする巧妙な変換を提案しています近似。私はパフォーマンスのために変形のバリエーションを試しましたが、これらのすべてが精度に悪影響を及ぼしました。変換(x-K)/(x + K)における定数Kの選択は、コア近似の精度との明白な関係を有する。私は経験的に "最適な"値を決めました。これは紙とは異なります。

コア近似の引数と中間結果の変換結果をerfcxに戻すと、追加の丸め誤差が発生します。精度への影響を軽減するために、補償手順を適用する必要があります。これについては先にquestion & answer regarding erfcfで詳しく説明しています。FMAの可用性は、この作業を大幅に簡素化します。

/* 
* Based on: M. M. Shepherd and J. G. Laframboise, "Chebyshev Approximation of 
* (1+2x)exp(x^2)erfc x in 0 <= x < INF", Mathematics of Computation, Vol. 36, 
* No. 153, January 1981, pp. 249-253. 
* 
*/ 
float my_erfcxf (float x) 
{ 
    float a, d, e, m, p, q, r, s, t; 

    a = fmaxf (x, 0.0f - x); // NaN-preserving absolute value computation 

    /* Compute q = (a-2)/(a+2) accurately. [0,INF) -> [-1,1] */ 
    m = a - 2.0f; 
    p = a + 2.0f; 
#if FAST_RCP_SSE 
    r = fast_recipf_sse (p); 
#else 
    r = 1.0f/p; 
#endif 
    q = m * r; 
    t = fmaf (q + 1.0f, -2.0f, a); 
    e = fmaf (q, -a, t); 
    q = fmaf (r, e, q); 

    /* Approximate (1+2*a)*exp(a*a)*erfc(a) as p(q)+1 for q in [-1,1] */ 
    p =    0x1.f10000p-15f; // 5.92470169e-5 
    p = fmaf (p, q, 0x1.521cc6p-13f); // 1.61224554e-4 
    p = fmaf (p, q, -0x1.6b4ffep-12f); // -3.46481771e-4 
    p = fmaf (p, q, -0x1.6e2a7cp-10f); // -1.39681227e-3 
    p = fmaf (p, q, 0x1.3c1d7ep-10f); // 1.20588380e-3 
    p = fmaf (p, q, 0x1.1cc236p-07f); // 8.69014394e-3 
    p = fmaf (p, q, -0x1.069940p-07f); // -8.01387429e-3 
    p = fmaf (p, q, -0x1.bc1b6cp-05f); // -5.42122945e-2 
    p = fmaf (p, q, 0x1.4ff8acp-03f); // 1.64048523e-1 
    p = fmaf (p, q, -0x1.54081ap-03f); // -1.66031078e-1 
    p = fmaf (p, q, -0x1.7bf5cep-04f); // -9.27637145e-2 
    p = fmaf (p, q, 0x1.1ba03ap-02f); // 2.76978403e-1 

    /* Divide (1+p) by (1+2*a) ==> exp(a*a)*erfc(a) */ 
    d = a + 0.5f; 
#if FAST_RCP_SSE 
    r = fast_recipf_sse (d); 
#else 
    r = 1.0f/d; 
#endif 
    r = r * 0.5f; 
    q = fmaf (p, r, r); // q = (p+1)/(1+2*a) 
    t = q + q; 
    e = (p - q) + fmaf (t, -a, 1.0f); // residual: (p+1)-q*(1+2*a) 
    r = fmaf (e, r, q); 

    if (a > 0x1.fffffep127f) r = 0.0f; // 3.40282347e+38 // handle INF argument 

    /* Handle negative arguments: erfcx(x) = 2*exp(x*x) - erfcx(|x|) */ 
    if (x < 0.0f) { 
     s = x * x; 
     d = fmaf (x, x, -s); 
     e = expf (s); 
     r = e - r; 
     r = fmaf (e, d + d, r); 
     r = r + e; 
     if (e > 0x1.fffffep127f) r = e; // 3.40282347e+38 // avoid creating NaN 
    } 
    return r; 
} 

負の半平面内のこの実装の最大誤差がexpf()の標準数学ライブラリの実装の正確さに依存するであろう次のよう

得単精度コードが見えます。インテルコンパイラ、バージョン13.1.3.198を使用し、/fp:strictでコンパイルすると、網羅的なテストで正のハーフプレーンで2.00450 ulps、負のハーフプレーンで2.38412 ulpsの最大誤差が観測されました。私が今話すことができる最高のexpf()の忠実な丸め実装は、2.5 ulps未満の最大誤差をもたらします。

コードには2つの部門がありますが、これは潜在的に低速な操作ですが、特殊な逆数形式で行われるため、多くのプラットフォームで高速逆数近似を使用することができます。逆数近似が忠実に丸められている限り、実験に基づいてerfcxf()の精度への影響はごくわずかです。高速SSEバージョン(最大エラー< 2.0 ulps)などのわずかに大きなエラーでさえ、軽微な影響しかないようです。

/* Fast reciprocal approximation. HW approximation plus Newton iteration */ 
float fast_recipf_sse (float a) 
{ 
    __m128 t; 
    float e, r; 
    t = _mm_set_ss (a); 
    t = _mm_rcp_ss (t); 
    _mm_store_ss (&r, t); 
    e = fmaf (0.0f - a, r, 1.0f); 
    r = fmaf (e, r, r); 
    return r; 
} 

倍精度バージョンerfcx()は単精度バージョンerfcxf()と構造的に同一であるが、より多くの用語とミニマックス多項式近似を必要とします。これは、コアの近似を最適化するときに、探索空間が非常に大きいときに多くのヒューリスティックが分解されるので、課題を提示する。以下の係数はこれまでの私の最良の解決策であり、改善の余地があります。インテルコンパイラおよび/fp:strictを用いて構築し、2つのランダムテストベクトルを用いて、観察された最大誤差は、正のハーフ平面で2.83788 ulpsであり、負のハーフプレーンで2.77856 ulpsであった。

double my_erfcx (double x) 
{ 
    double a, d, e, m, p, q, r, s, t; 

    a = fmax (x, 0.0 - x); // NaN preserving absolute value computation 

    /* Compute q = (a-4)/(a+4) accurately. [0,INF) -> [-1,1] */ 
    m = a - 4.0; 
    p = a + 4.0; 
    r = 1.0/p; 
    q = m * r; 
    t = fma (q + 1.0, -4.0, a); 
    e = fma (q, -a, t); 
    q = fma (r, e, q); 

    /* Approximate (1+2*a)*exp(a*a)*erfc(a) as p(q)+1 for q in [-1,1] */ 
    p =    0x1.edcad78fc8044p-31; // 8.9820305531190140e-10 
    p = fma (p, q, 0x1.b1548f14735d1p-30); // 1.5764464777959401e-09 
    p = fma (p, q, -0x1.a1ad2e6c4a7a8p-27); // -1.2155985739342269e-08 
    p = fma (p, q, -0x1.1985b48f08574p-26); // -1.6386753783877791e-08 
    p = fma (p, q, 0x1.c6a8093ac4f83p-24); // 1.0585794011876720e-07 
    p = fma (p, q, 0x1.31c2b2b44b731p-24); // 7.1190423171700940e-08 
    p = fma (p, q, -0x1.b87373facb29fp-21); // -8.2040389712752056e-07 
    p = fma (p, q, 0x1.3fef1358803b7p-22); // 2.9796165315625938e-07 
    p = fma (p, q, 0x1.7eec072bb0be3p-18); // 5.7059822144459833e-06 
    p = fma (p, q, -0x1.78a680a741c4ap-17); // -1.1225056665965572e-05 
    p = fma (p, q, -0x1.9951f39295cf4p-16); // -2.4397380523258482e-05 
    p = fma (p, q, 0x1.3be1255ce180bp-13); // 1.5062307184282616e-04 
    p = fma (p, q, -0x1.a1df71176b791p-13); // -1.9925728768782324e-04 
    p = fma (p, q, -0x1.8d4aaa0099bc8p-11); // -7.5777369791018515e-04 
    p = fma (p, q, 0x1.49c673066c831p-8); // 5.0319701025945277e-03 
    p = fma (p, q, -0x1.0962386ea02b7p-6); // -1.6197733983519948e-02 
    p = fma (p, q, 0x1.3079edf465cc3p-5); // 3.7167515521269866e-02 
    p = fma (p, q, -0x1.0fb06dfedc4ccp-4); // -6.6330365820039094e-02 
    p = fma (p, q, 0x1.7fee004e266dfp-4); // 9.3732834999538536e-02 
    p = fma (p, q, -0x1.9ddb23c3e14d2p-4); // -1.0103906603588378e-01 
    p = fma (p, q, 0x1.16ecefcfa4865p-4); // 6.8097054254651804e-02 
    p = fma (p, q, 0x1.f7f5df66fc349p-7); // 1.5379652102610957e-02 
    p = fma (p, q, -0x1.1df1ad154a27fp-3); // -1.3962111684056208e-01 
    p = fma (p, q, 0x1.dd2c8b74febf6p-3); // 2.3299511862555250e-01 

    /* Divide (1+p) by (1+2*a) ==> exp(a*a)*erfc(a) */ 
    d = a + 0.5; 
    r = 1.0/d; 
    r = r * 0.5; 
    q = fma (p, r, r); // q = (p+1)/(1+2*a) 
    t = q + q; 
    e = (p - q) + fma (t, -a, 1.0); // residual: (p+1)-q*(1+2*a) 
    r = fma (e, r, q); 

    /* Handle argument of infinity */ 
    if (a > 0x1.fffffffffffffp1023) r = 0.0; 

    /* Handle negative arguments: erfcx(x) = 2*exp(x*x) - erfcx(|x|) */ 
    if (x < 0.0) { 
     s = x * x; 
     d = fma (x, x, -s); 
     e = exp (s); 
     r = e - r; 
     r = fma (e, d + d, r); 
     r = r + e; 
     if (e > 0x1.fffffffffffffp1023) r = e; // avoid creating NaN 
    } 
    return r; 
} 
関連する問題