Dirichlets test

Den här artikeln behöver källhänvisningar för att kunna verifieras. (2020-12)
Åtgärda genom att lägga till pålitliga källor (gärna som fotnoter). Uppgifter utan källhänvisning kan ifrågasättas och tas bort utan att det behöver diskuteras på diskussionssidan.

Dirichlets test är inom matematik en metod för att testa om en serie konvergerar uppkallad efter matematikern Dirichlet.

Givet två följder av reella tal, ( a n ) {\displaystyle (a_{n})} och ( b n ) {\displaystyle (b_{n})} , konvergerar serien

n = 1 a n b n {\displaystyle \sum _{n=1}^{\infty }a_{n}b_{n}}

om ( a n ) {\displaystyle (a_{n})} och ( b n ) {\displaystyle (b_{n})} uppfyller:

  • a 1 a 2 . . . a n . . . > 0 {\displaystyle a_{1}\geq a_{2}\geq ...\geq a_{n}\geq ...>0}
  • lim n a n = 0 {\displaystyle \lim _{n\rightarrow \infty }a_{n}=0}
  • | n = 1 N b n | M {\displaystyle \left|\sum _{n=1}^{N}b_{n}\right|\leq M} för varje naturligt tal N {\displaystyle N} .

En följd av Diriclets test är Leibniz kriterium, som säger att serien

n = 1 ( 1 ) n a n {\displaystyle \sum _{n=1}^{\infty }(-1)^{n}a_{n}}

konvergerar om följden ( a n ) {\displaystyle (a_{n})} är minskande mot noll. Följden ( b n ) {\displaystyle (b_{n})} är i det här fallet b n = ( 1 ) n {\displaystyle b_{n}=(-1)^{n}} vars serie uppenbart är begränsad av talet 1.