2017-10-19 43 views
6

私はpythonを使用してべき乗則にいくつかのデータを収めようとしています。問題は、私のポイントのいくつかが上限にあることです。フィッティングルーチンにどのように含めるべきか分かりません。ODRを使用したデータの上限と非対称エラーによるPythonの法則の適合

データでは、残りの部分がはるかに小さい場合、yの誤差として上限を1に設定しました。このエラーを0にしてuplimsリストジェネレータを変更することができますが、フィットはひどいです。

コードは以下の通りです:

import numpy as np 
import matplotlib.pyplot as plt 
from scipy.odr import * 

# Initiate some data 
x = [1.73e-04, 5.21e-04, 1.57e-03, 4.71e-03, 1.41e-02, 4.25e-02, 1.28e-01, 3.84e-01, 1.15e+00] 
x_err = [1e-04, 1e-04, 1e-03, 1e-03, 1e-02, 1e-02, 1e-01, 1e-01, 1e-01] 
y = [1.26e-05, 8.48e-07, 2.09e-08, 4.11e-09, 8.22e-10, 2.61e-10, 4.46e-11, 1.02e-11, 3.98e-12] 
y_err = [1, 1, 2.06e-08, 2.5e-09, 5.21e-10, 1.38e-10, 3.21e-11, 1, 1] 

# Define upper limits 
uplims = np.ones(len(y_err),dtype='bool') 
for i in range(len(y_err)): 
    if y_err[i]<1: 
     uplims[i]=0 
    else: 
     uplims[i]=1 

# Define a function (power law in our case) to fit the data with. 
def function(p, x): 
    m, c = p 
    return m*x**(-c) 

# Create a model for fitting. 
model = Model(function) 

# Create a RealData object using our initiated data from above. 
data = RealData(x, y, sx=x_err, sy=y_err) 

# Set up ODR with the model and data. 
odr = ODR(data, model, beta0=[1e-09, 2]) 
odr.set_job(fit_type=0) # 0 is full ODR and 2 is least squares; AFAIK, it doesn't change within errors 
# more details in https://docs.scipy.org/doc/scipy/reference/generated/scipy.odr.ODR.set_job.html 

# Run the regression. 
out = odr.run() 


# Use the in-built pprint method to give us results. 
#out.pprint() #this prints much information, but normally we don't need it, just the parameters and errors; the residual variation is the reduced chi square estimator 

print('amplitude = %5.2e +/- %5.2e \nindex = %5.2f +/- %5.2f \nchi square = %12.8f'% (out.beta[0], out.sd_beta[0], out.beta[1], out.sd_beta[1], out.res_var)) 

# Generate fitted data. 
x_fit = np.linspace(x[0], x[-1], 1000) #to do the fit only within the x interval; we can always extrapolate it, of course 
y_fit = function(out.beta, x_fit) 


# Generate a plot to show the data, errors, and fit. 
fig, ax = plt.subplots() 

ax.errorbar(x, y, xerr=x_err, yerr=y_err, uplims=uplims, linestyle='None', marker='x') 
ax.loglog(x_fit, y_fit) 
ax.set_xlabel(r'$x$') 
ax.set_ylabel(r'$f(x) = m·x^{-c}$') 
ax.set_title('Power Law fit') 

plt.show() 

フィットの結果は次のとおりです。

amplitude = 3.42e-12 +/- 5.32e-13 
index = 1.33 +/- 0.04 
chi square = 0.01484021 

Plot of the fit

次の2つは、最初と最後の二つのプロットで見ることができるようにポイントは上限であり、フィット感は考慮されていません。さらに、最後から2番目の点では、厳密に禁じられているにもかかわらず、適合はそれを超えています。

私は、この限界が非常に厳しいことを知っている必要があります。ポイント自体にフィットしようとせず、限界としてだけ考えてください。どのように私はodrルーチン(または私に合うようにし、私にカイ2乗エスケープ推定子を与える他のコード)でこれを行うことができますか?

私は他の一般化に簡単に変更する必要があることを考慮してください。そうすれば、powerlawモジュールのようなものは望ましくありません。

ありがとうございます!

+0

ああ...ただ気付いて、それは上限か、下限もありますか... ...とにかく、私の解決策は両方を可能にします。 – mikuszefski

+0

@mikuszefskiはい、それは単なる上限ですが、yとxのエラーが非対称である必要があることを忘れていました。つまり、下位エラーと上位エラーに対してyerr_lとyerr_uを入れる必要があります。バツ! – astrostudent

+0

ああ、そういうパッケージがあれば、ODRでうまく動作しないでしょう。実際、現時点では、非対称エラーの直交距離はどういうものか分かりません。しかし、「x」と「y」は相関関係がありませんか、それともそれらですか? – mikuszefski

答えて

0

この回答はthisポストに関連しています。ここでは、xyというエラーが付いています。したがって、ODRモジュールは必要ありませんが、手動で行うことができます。したがって、leastsqまたはminimizeを使用することができます。制約に関して、私は可能ならばそれらを回避しようとしていることを他の記事で明確にしました。プログラミングや数学の詳細は少し厄介ですが、特に安定していると思われる場合は、これもここで行うことができます。私はちょうど大まかなアイデアを与えるでしょう。私たちが欲しいと言うとy0 > m * x0**(-c)。ログ形式では、eta0 > mu - c * xeta0と書くことができます。私。 のようにeta0 = mu - c * xeta0 + alpha**2があります。他の不平等にも同じです。第2の上限についてはbeta**2が得られますが、どちらが小さいかを決定することができますので、自動的にもう一方の条件を満たします。同じことが下限のためにgamma**2delta**2で動作します。 alphagammaで作業できるとします。不平等条件を組み合わせて、これらの2つを関連付けることもできます。最後に、sigmaalpha = sqrt(s-t)* sigma/sqrt(sigma**2 + 1)に適合させることができます。ここで、stは不等式から派生しています。 sigma/sqrt(sigma**2 + 1)機能は、特定の範囲でalphaが変化するようにする1つのオプションです。すなわち、alpha**2 < s-tラジカルがマイナスになる可能性があることは、解決策がない場合があることを示しています。 alphaが知られている場合、mu、したがってmが計算される。したがって適合パラメータはcsigmaであり、これは不等式を考慮に入れてmに依存します。私はそれをうんざりして動作しますが、手元にあるバージョンは最も安定したものではありません。私は要請に応じてそれを掲示するだろう。

すでにハンドメイドの残余関数があるので、2番目の選択肢があります。独自のchi**2関数を導入し、制約を許可するminimizeを使用します。minimizeconstraintsのキーワード解決策は非常に柔軟で残りの機能は他の機能用に簡単に変更でき、m * x**(-c)だけでなく、全体の構成が非常に柔軟です。これは次のようになります。

import matplotlib.pyplot as plt 
import numpy as np 
from random import random, seed 
from scipy.optimize import minimize,leastsq 

seed(7563) 
fig1 = plt.figure(1) 


###for gaussion distributed errors 
def boxmuller(x0,sigma): 
    u1=random() 
    u2=random() 
    ll=np.sqrt(-2*np.log(u1)) 
    z0=ll*np.cos(2*np.pi*u2) 
    z1=ll*np.cos(2*np.pi*u2) 
    return sigma*z0+x0, sigma*z1+x0 


###for plotting ellipses 
def ell_data(a,b,x0=0,y0=0): 
    tList=np.linspace(0,2*np.pi,150) 
    k=float(a)/float(b) 
    rList=[a/np.sqrt((np.cos(t))**2+(k*np.sin(t))**2) for t in tList] 
    xyList=np.array([[x0+r*np.cos(t),y0+r*np.sin(t)] for t,r in zip(tList,rList)]) 
    return xyList 

###function to fit 
def f(x,m,c): 
    y = abs(m) * abs(x)**(-abs(c)) 
    #~ print y,x,m,c 
    return y 


###how to rescale the ellipse to make fitfunction a tangent 
def elliptic_rescale(x, m, c, x0, y0, sa, sb): 
    #~ print "e,r",x,m,c 
    y=f(x, m, c) 
    #~ print "e,r",y 
    r=np.sqrt((x - x0)**2 + (y - y0)**2) 
    kappa=float(sa)/float(sb) 
    tau=np.arctan2(y - y0, x - x0) 
    new_a=r*np.sqrt(np.cos(tau)**2 + (kappa * np.sin(tau))**2) 
    return new_a 

###residual function to calculate chi-square 
def residuals(parameters,dataPoint):#data point is (x,y,sx,sy) 
    m, c = parameters 
    #~ print "m c", m, c 
    theData = np.array(dataPoint) 
    best_t_List=[] 
    for i in range(len(dataPoint)): 
     x, y, sx, sy = dataPoint[i][0], dataPoint[i][1], dataPoint[i][2], dataPoint[i][3] 
     #~ print "x, y, sx, sy",x, y, sx, sy 
     ###getthe point on the graph where it is tangent to an error-ellipse 
     ed_fit = minimize(elliptic_rescale, x , args = (m, c, x, y, sx, sy)) 
     best_t = ed_fit['x'][0] 
     best_t_List += [best_t] 
     #~ exit(0) 
    best_y_List=[ f(t, m, c) for t in best_t_List ] 
    ##weighted distance not squared yet, as this is done by scipy.optimize.leastsq 
    wighted_dx_List = [ (x_b - x_f)/sx for x_b, x_f, sx in zip(best_t_List,theData[:,0], theData[:,2]) ] 
    wighted_dy_List = [ (x_b - x_f)/sx for x_b, x_f, sx in zip(best_y_List,theData[:,1], theData[:,3]) ] 
    return wighted_dx_List + wighted_dy_List 


def chi2(params, pnts): 
    r = np.array(residuals(params, pnts)) 
    s = sum([ x**2 for x in r] ) 
    #~ print params,s,r 
    return s 


def myUpperIneq(params,pnt): 
    m, c = params 
    x,y=pnt 
    return y - f(x, m, c) 


def myLowerIneq(params,pnt): 
    m, c = params 
    x,y=pnt 
    return f(x, m, c) - y 


###to create some test data 
def test_data(m,c, xList,const_sx,rel_sx,const_sy,rel_sy): 
    yList=[f(x,m,c) for x in xList] 
    xErrList=[ boxmuller(x,const_sx+x*rel_sx)[0] for x in xList] 
    yErrList=[ boxmuller(y,const_sy+y*rel_sy)[0] for y in yList] 
    return xErrList,yErrList 


###some start values 
mm_0=2.3511 
expo_0=.3588 
csx,rsx=.01,.07 
csy,rsy=.04,.09, 

limitingPoints=dict() 
limitingPoints[0]=np.array([[.2,5.4],[.5,5.0],[5.1,.9],[5.7,.9]]) 
limitingPoints[1]=np.array([[.2,5.4],[.5,5.0],[5.1,1.5],[5.7,1.2]]) 
limitingPoints[2]=np.array([[.2,3.4],[.5,5.0],[5.1,1.1],[5.7,1.2]]) 
limitingPoints[3]=np.array([[.2,3.4],[.5,5.0],[5.1,1.7],[5.7,1.2]]) 

####some data 
xThData=np.linspace(.2,5,15) 
yThData=[ f(x, mm_0, expo_0) for x in xThData] 

#~ ###some noisy data 
xNoiseData,yNoiseData=test_data(mm_0, expo_0, xThData, csx,rsx, csy,rsy) 
xGuessdError=[csx+rsx*x for x in xNoiseData] 
yGuessdError=[csy+rsy*y for y in yNoiseData] 



for testing in range(4): 
    ###Now fitting with limits 
    zipData=zip(xNoiseData,yNoiseData, xGuessdError, yGuessdError)  
    estimate = [ 2.4, .3 ] 
    con0={'type': 'ineq', 'fun': myUpperIneq, 'args': (limitingPoints[testing][0],)} 
    con1={'type': 'ineq', 'fun': myUpperIneq, 'args': (limitingPoints[testing][1],)} 
    con2={'type': 'ineq', 'fun': myLowerIneq, 'args': (limitingPoints[testing][2],)} 
    con3={'type': 'ineq', 'fun': myLowerIneq, 'args': (limitingPoints[testing][3],)} 
    myResult = minimize(chi2 , estimate , args=(zipData,), constraints=[ con0, con1, con2, con3 ] ) 
    print "############" 
    print myResult 


    ###plot that 
    ax=fig1.add_subplot(4,2,2*testing+1) 
    ax.plot(xThData,yThData) 
    ax.errorbar(xNoiseData,yNoiseData, xerr=xGuessdError, yerr=yGuessdError, fmt='none',ecolor='r') 


    testX = np.linspace(.2,6,25) 
    testY = np.fromiter((f(x, myResult.x[0], myResult.x[1]) for x in testX), np.float) 

    bx=fig1.add_subplot(4,2,2*testing+2) 
    bx.plot(xThData,yThData) 
    bx.errorbar(xNoiseData,yNoiseData, xerr=xGuessdError, yerr=yGuessdError, fmt='none',ecolor='r') 
    ax.plot(limitingPoints[testing][:,0],limitingPoints[testing][:,1],marker='x', linestyle='') 
    bx.plot(limitingPoints[testing][:,0],limitingPoints[testing][:,1],marker='x', linestyle='') 
    ax.plot(testX, testY, linestyle='--') 
    bx.plot(testX, testY, linestyle='--') 

    bx.set_xscale('log') 
    bx.set_yscale('log') 

plt.show() 

提供結果 私は、4つの異なる制限ポイント(行)をチェックenter image description here

############ 
    status: 0 
success: True 
    njev: 8 
    nfev: 36 
    fun: 13.782127248002116 
     x: array([ 2.15043226, 0.35646436]) 
message: 'Optimization terminated successfully.' 
    jac: array([-0.00377715, 0.00350225, 0.  ]) 
    nit: 8 
############ 
    status: 0 
success: True 
    njev: 7 
    nfev: 32 
    fun: 41.372277637885716 
     x: array([ 2.19005695, 0.23229378]) 
message: 'Optimization terminated successfully.' 
    jac: array([ 123.95069313, -442.27114677, 0.  ]) 
    nit: 7 
############ 
    status: 0 
success: True 
    njev: 5 
    nfev: 23 
    fun: 15.946621924326545 
     x: array([ 2.06146362, 0.31089065]) 
message: 'Optimization terminated successfully.' 
    jac: array([-14.39131606, -65.44189298, 0.  ]) 
    nit: 5 
############ 
    status: 0 
success: True 
    njev: 7 
    nfev: 34 
    fun: 88.306027468763432 
     x: array([ 2.16834392, 0.14935514]) 
message: 'Optimization terminated successfully.' 
    jac: array([ 224.11848736, -791.75553417, 0.  ]) 
    nit: 7 

。結果は、通常および対数スケール(列)で表示されます。いくつかの追加作業をすれば、エラーも発生する可能性があります。

非対称エラーの更新 現時点では、このプロパティの処理方法はわかりません。純粋に、this postに似た独自の非対称損失関数を定義したいと思います。 xyのエラーでは、私は正または負の面をチェックするのではなく、象限でエラーを出します。したがって、エラーの楕円は4つの接続された部分に変わります。 それにもかかわらず、やや妥当です。テストとそれがどのように動作するかを示すために、私は線形関数の例を作った。私はOPが彼の要求に従って2つのコードを組み合わせることができると思います。上のグラフは、元の線形関数と非対称ガウシアン誤差を使用して、このから生成されたいくつかのデータを示す

asymmetric error fit をプロット

import matplotlib.pyplot as plt 
import numpy as np 
from random import random, seed 
from scipy.optimize import minimize,leastsq 

#~ seed(7563) 
fig1 = plt.figure(1) 
ax=fig1.add_subplot(2,1,1) 
bx=fig1.add_subplot(2,1,2) 

###function to fit, here only linear for testing. 
def f(x,m,y0): 
    y = m * x +y0 
    return y 

###for gaussion distributed errors 
def boxmuller(x0,sigma): 
    u1=random() 
    u2=random() 
    ll=np.sqrt(-2*np.log(u1)) 
    z0=ll*np.cos(2*np.pi*u2) 
    z1=ll*np.cos(2*np.pi*u2) 
    return sigma*z0+x0, sigma*z1+x0 


###for plotting ellipse quadrants 
def ell_data(aN,aP,bN,bP,x0=0,y0=0): 
    tPPList=np.linspace(0, 0.5 * np.pi, 50) 
    kPP=float(aP)/float(bP) 
    rPPList=[aP/np.sqrt((np.cos(t))**2+(kPP*np.sin(t))**2) for t in tPPList] 

    tNPList=np.linspace(0.5 * np.pi, 1.0 * np.pi, 50) 
    kNP=float(aN)/float(bP) 
    rNPList=[aN/np.sqrt((np.cos(t))**2+(kNP*np.sin(t))**2) for t in tNPList] 

    tNNList=np.linspace(1.0 * np.pi, 1.5 * np.pi, 50) 
    kNN=float(aN)/float(bN) 
    rNNList=[aN/np.sqrt((np.cos(t))**2+(kNN*np.sin(t))**2) for t in tNNList] 

    tPNList = np.linspace(1.5 * np.pi, 2.0 * np.pi, 50) 
    kPN = float(aP)/float(bN) 
    rPNList = [aP/np.sqrt((np.cos(t))**2+(kPN*np.sin(t))**2) for t in tPNList] 

    tList = np.concatenate([ tPPList, tNPList, tNNList, tPNList]) 
    rList = rPPList + rNPList+ rNNList + rPNList 

    xyList=np.array([[x0+r*np.cos(t),y0+r*np.sin(t)] for t,r in zip(tList,rList)]) 
    return xyList 


###how to rescale the ellipse to touch fitfunction at point (x,y) 
def elliptic_rescale_asymmetric(x, m, c, x0, y0, saN, saP, sbN, sbP , getQuadrant=False): 
    y=f(x, m, c) 
    ###distance to function 
    r=np.sqrt((x - x0)**2 + (y - y0)**2) 
    ###angle to function 
    tau=np.arctan2(y - y0, x - x0) 
    quadrant=0 
    if tau >0: 
     if tau < 0.5 * np.pi: ## PP 
      kappa=float(saP)/float(sbP) 
      quadrant=1 
     else: 
      kappa=float(saN)/float(sbP) 
      quadrant=2 
    else: 
     if tau < -0.5 * np.pi: ## PP 
      kappa=float(saN)/float(sbN) 
      quadrant=3 
     else: 
      kappa=float(saP)/float(sbN) 
      quadrant=4 
    new_a=r*np.sqrt(np.cos(tau)**2 + (kappa * np.sin(tau))**2) 
    if quadrant == 1 or quadrant == 4: 
     rel_a=new_a/saP 
    else: 
     rel_a=new_a/saN 
    if getQuadrant: 
     return rel_a, quadrant, tau 
    else: 
     return rel_a 

### residual function to calculate chi-square 
def residuals(parameters,dataPoint):#data point is (x,y,sxN,sxP,syN,syP) 
    m, c = parameters 
    theData = np.array(dataPoint) 
    bestTList=[] 
    qqList=[] 
    weightedDistanceList = [] 
    for i in range(len(dataPoint)): 
     x, y, sxN, sxP, syN, syP = dataPoint[i][0], dataPoint[i][1], dataPoint[i][2], dataPoint[i][3], dataPoint[i][4], dataPoint[i][5] 
     ### get the point on the graph where it is tangent to an error-ellipse 
     ### i.e. smallest ellipse touching the graph 
     edFit = minimize( elliptic_rescale_asymmetric, x , args = (m, c, x, y, sxN, sxP, syN, syP)) 
     bestT = edFit['x'][0] 
     bestTList += [ bestT ] 
     bestA,qq , tau= elliptic_rescale_asymmetric(bestT, m, c , x, y, aN, aP, bN, bP , True) 
     qqList += [ qq ] 
    bestYList=[ f(t, m, c) for t in bestTList ] 
    ### weighted distance not squared yet, as this is done by scipy.optimize.leastsq or manual chi2 function 
    for counter in range(len(dataPoint)): 
     xb=bestTList[counter] 
     xf=dataPoint[counter][0] 
     yb=bestYList[counter] 
     yf=dataPoint[counter][1] 
     quadrant=qqList[counter] 
     if quadrant == 1: 
      sx, sy = sxP, syP 
     elif quadrant == 2: 
      sx, sy = sxN, syP 
     elif quadrant == 3: 
      sx, sy = sxN, syN 
     elif quadrant == 4: 
      sx, sy = sxP, syN 
     else: 
      assert 0 
     weightedDistanceList += [ (xb - xf)/sx, (yb - yf)/sy ] 
    return weightedDistanceList 


def chi2(params, pnts): 
    r = np.array(residuals(params, pnts)) 
    s = np.fromiter((x**2 for x in r), np.float).sum() 
    return s 

####...to make data with asymmetric error (fixed); for testing only 
def noisy_data(xList,m0,y0, sxN,sxP,syN,syP): 
    yList=[ f(x, m0, y0) for x in xList] 
    gNList=[boxmuller(0,1)[0] for dummy in range(len(xList))] 
    xerrList=[] 
    for x,err in zip(xList,gNList): 
     if err < 0: 
      xerrList += [ sxP * err + x ] 
     else: 
      xerrList += [ sxN * err + x ] 
    gNList=[boxmuller(0,1)[0] for dummy in range(len(xList))] 
    yerrList=[] 
    for y,err in zip(yList,gNList): 
     if err < 0: 
      yerrList += [ syP * err + y ] 
     else: 
      yerrList += [ syN * err + y ] 
    return xerrList, yerrList 


###some start values 
m0=1.3511 
y0=-2.2 
aN, aP, bN, bP=.2,.5, 0.9, 1.6 

#### some data 
xThData=np.linspace(.2,5,15) 
yThData=[ f(x, m0, y0) for x in xThData] 
xThData0=np.linspace(-1.2,7,3) 
yThData0=[ f(x, m0, y0) for x in xThData0] 

### some noisy data 
xErrList,yErrList = noisy_data(xThData, m0, y0, aN, aP, bN, bP) 

###...and the fit 
dataToFit=zip(xErrList,yErrList, len(xThData)*[aN], len(xThData)*[aP], len(xThData)*[bN], len(xThData)*[bP]) 
fitResult = minimize(chi2, (m0,y0) , args=(dataToFit,)) 
fittedM, fittedY=fitResult.x 
yThDataF=[ f(x, fittedM, fittedY) for x in xThData0] 


### plot that 
for cx in [ax,bx]: 
    cx.plot([-2,7], [f(x, m0, y0) for x in [-2,7]]) 

ax.errorbar(xErrList,yErrList, xerr=[ len(xThData)*[aN],len(xThData)*[aP] ], yerr=[ len(xThData)*[bN],len(xThData)*[bP] ], fmt='ro') 

for x,y in zip(xErrList,yErrList)[:]: 
    xEllList,yEllList = zip(*ell_data(aN,aP,bN,bP,x,y)) 
    ax.plot(xEllList,yEllList ,c='#808080') 
    ### rescaled 
    ### ...as well as a scaled version that touches the original graph. This gives the error shortest distance to that graph 
    ed_fit = minimize(elliptic_rescale_asymmetric, 0 ,args=(m0, y0, x, y, aN, aP, bN, bP)) 
    best_t = ed_fit['x'][0] 
    best_a,qq , tau= elliptic_rescale_asymmetric(best_t, m0, y0 , x, y, aN, aP, bN, bP , True) 
    xEllList,yEllList = zip(*ell_data(aN * best_a, aP * best_a, bN * best_a, bP * best_a, x, y)) 
    ax.plot(xEllList, yEllList, c='#4040a0') 

###plot the fit 

bx.plot(xThData0,yThDataF) 
bx.errorbar(xErrList,yErrList, xerr=[ len(xThData)*[aN],len(xThData)*[aP] ], yerr=[ len(xThData)*[bN],len(xThData)*[bP] ], fmt='ro') 
for x,y in zip(xErrList,yErrList)[:]: 
    xEllList,yEllList = zip(*ell_data(aN,aP,bN,bP,x,y)) 
    bx.plot(xEllList,yEllList ,c='#808080') 
    ####rescaled 
    ####...as well as a scaled version that touches the original graph. This gives the error shortest distance to that graph 
    ed_fit = minimize(elliptic_rescale_asymmetric, 0 ,args=(fittedM, fittedY, x, y, aN, aP, bN, bP)) 
    best_t = ed_fit['x'][0] 
    #~ print best_t 
    best_a,qq , tau= elliptic_rescale_asymmetric(best_t, fittedM, fittedY , x, y, aN, aP, bN, bP , True) 
    xEllList,yEllList = zip(*ell_data(aN * best_a, aP * best_a, bN * best_a, bP * best_a, x, y)) 
    bx.plot(xEllList, yEllList, c='#4040a0') 

plt.show() 

:線形の場合

は、このようになり合います。エラーバーがプロットされ、また、区分誤差の楕円(灰色...と線形関数に接触するように再スケーリングされ、青色)が表示されます。下のグラフには、フィッティングされた関数に加えて、再スケーリングされた区分的な楕円も示されています。

関連する問題