Salve!
AutorInnen
WiKu Reihen
Wirtschaft
Management
Internat. Forschung
Jura
Kriminologie
Pädagogik
Phil. & Psy.
Sprach-/Kulturw.
Medizin/Gesundheit
Technik
Kanalroboter
Cylindrical Panels
Power Systems
Arnoldi Methods
HHA
Power Systems
Order Statistics
Electrical Circuits
Powerline
Informatik
Naturwissenschaft
Belletristik
Informationen
BESTELLEN
Glücks-KLEE
Impressum
   
 




ISBN 3-936749-71-X, EUR 33,85, Seiten: 262. Die Hauptsprache des Werkes ist englisch. Hier direkt bei AMAZON bestellbar:

  


Krylov-Raum-Methoden zum Lösen linearer Gleichungssysteme haben die Eigenschaft,
dass sie implizit das minimale Polynom der Systemmatrix in bezug auf den ersten Residuumsvektor bestimmen. 

Vektorextrapolationsmethoden werden verwendet, um die Konvergenz von Vektorsequenzen zu beschleunigen. Sie benötigen keine Information, wie eine solche Sequenz erzeugt wurde. Wenn aber die Sequenz durch eine lineare Iteration erzeugt wurde, kann gezeigt werden, dass der extrapolierte Grenzwert einer Vektorextrapolationsmethode die Lösung eines linearen Gleichungssystems ist. Vektorextrapolationsmethoden approximieren explizit die Koeffizienten des minimalen
Polynoms dieses Gleichungssystems ohne Zuhilfenahme der Systemmatrix und des Vektors auf der rechten Seite. Es ist bereits bekannt, dass diese Methoden und Krylov-Raum-Methoden in exakter Arithmetik dieselben Iterierten erzeugen, falls sie zum Lösen von linearen Gleichungssystemen verwendet werden. 

Die explizite Bestimmung der Koeffizienten des minimalen Polynoms ist numerisch nicht stabil. Krylov-Raum-Methoden verwenden einen genaueren, impliziten Ansatz. Auf der anderen Seite aber sind Vektorextrapolationsmethoden im Stande, nichtlineare Gleichungssysteme zu lösen, die einen dominanten linearen Anteil in der Nähe des zu extrapolierenden Grenzwertes aufweisen.

Der erzeugende Prozess der Vektorsequenz einer Vektorextrapolationsmethode kann im Krylov-Raum-Kontext als Vorkonditionierer angesehen werden. Unter Verwendung der zentralen Idee von Vektorextrapolationsmethoden (Differenzvektoren der Sequenzvektoren) kann der Vorkonditionierer um eine rekursive Vorschrift erweitert werden, um die Matrix-Vektor-Multiplikation von wiedergestarteten Krylov-Raum-Methoden zu ersetzen. Auf diese Weise können Krylov-Raum-Methoden zum Lösen
linearer Gleichungssysteme auf das Lösen nichtlinearer Gleichungssysteme adaptiert werden. Sie besitzen dann ähnliche Konvergenzeigenschaften wie Vektorextrapolationsmethoden.

Der wissenschaftliche Hauptbeitrag dieser Doktorarbeit ist die Entwicklung und Umsetzung dieses Ansatzes für die allgemeinen Arnoldi-Methoden FOM und GMRES. Dadurch erhalten wir zwei neue Methoden zum Lösen nichtlinearer Gleichungssysteme —vorkonditionierte Arnoldi-Methoden zum Lösen nichtlinearer Gleichungssysteme, die für gewisse Problemstellungen eine bessere Leistung erbringen können als etablierte Methoden wie z.B. inexakte Newton-Methoden. Die neuen Algorithmen wurden anhand der Chandrasekhar H-Gleichung und einem Wärmestrahlungsproblem des Forschungszentrums der Firma ABB in Dättwil, Schweiz getestet. 

Ein weiterer Beitrag dieser Doktorarbeit ist die Entwicklung einer allgemeinen Theorie für Vektorextrapolationsmethoden. Diese kann auch auf die neu entwickelten Algorithmen angewendet werden. Die Hauptaussage dieser Theorie ist: Vektorextrapolationsmethoden sind Implementationen der Methode von Henrici (eine Verallgemeinerung der Methode von Steffensen auf Vektorsequenzen).

Neu in dieser Theorie ist die Formulierung eines Kontorovich-Theorems für die Methode von Henrici, das die Bedingungen für ihre Konvergenz festlegt. Aufgrund unserer geometrischen Untersuchengen waren wir ausserdem in der Lage, eine Klasse von skalaren Iterationsvorschriften zu beschreiben, für welche die Schmidt-Shanks-Transformation in nur einem Schritt konvergiert.

In dieser Doktorarbeit werden die wichtigsten herkömmlichen Verfahren zum Lösen nichtlinearer Gleichungssysteme beschrieben. Überdies wird ein Überblick über die Theorie der linearen Krylov-Raum-Methoden gegeben. Beispiele und Graphiken illustrieren unsere Ausführungen. 


Dieses Werk ist eine Co-Produktion mit der WiKu Editions Paris E.U.R.L.

Résumé 

Les méthodes utilisant l’espace de Krylov pour la résolution de systèmes d’équations linéaires ont la particularité qu’elles déterminent de manière implicite le polynôme minimal de la matrice du système en fonction du premier vecteur résiduel.

Les méthodes d’extrapolation vectorielle sont utilisées pour accélérer la convergence des séquences vectorielles. Elles n’ont pas besoin de savoir comment une telle séquence a été créée. Mais si la séquence a été créée par une itération linéaire, on peut montrer que la valeur limite extrapolée d’une méthode d’extrapolation vectorielle est la résolution d’un système d’équations linéaire. Les méthodes d’extrapolation vectorielle calculent par approximation explicitement les coefficients du polynôme minimal de ce système d’équations sans recourir à la matrice et au vecteur sur le coté droit. Il est déjà connu que ces méthodes et les méthodes de Krylov produisent dans une arithmétique exacte les mêmes itérés, si elles sont utilisées pour la résolution de systèmes d’équations linéaires. 

La détermination explicite des coefficients du polynôme minimal n’est pas numériquement stable. Les méthodes de Krylov utilisent une mise en équation implicite plus précise. Mais, d’autre part, les méthodes d’extrapolation vectorielle sont capables de résoudre des systèmes d’équations non linéaires, qui démontrent une part linéaire dominante aux environs de la valeur limite à extrapoler. 

Le processus créé de la séquence vectorielle d’une méthode d’extrapolation vectorielle peut être considéré comme préconditionneur. Avec l’utilisation de l’idée centrale des méthodes d’extrapolation vectorielle (vecteurs différentiels des vecteurs séquentiels) on peut augmenter le préconditionneur d’une directive récursive, pour remplacer la multiplication du vecteur de la matrice des méthodes de Krylov, recommencées à nouveau. De cette manière on peut adapter la méthode de Krylov pour la résolution de systèmes d’équations linéaires à la résolution de systèmes d’équations non linéaires. Elles possèdent alors des particularités de convergence semblables aux méthodes d’extrapolation vectorielle. 

La principale contribution scientifique de cette thèse de doctorat est le développement et la mise en pratique de cette disposition pour les méthodes générales d’Arnoldi FOM et GRMES. Nous obtenons ainsi deux nouvelles méthodes pour la résolution de systèmes d’équations non linéaires, les méthodes préconditionnées d’Arnoldi pour la résolution de systèmes d’équations non linéaires, qui peuvent apporter pour certains problèmes un meilleur résultat que des méthodes établies, comme les inexactes méthodes de Newton. Les nouveaux algorithmes ont été testés à l’aide de l’équation H de Chandrasekhar et d’un problème de rayonnement de la chaleur du centre de recherche de l’entreprise ABB à Dättwil, en Suisse.  

Une autre contribution de ce travail est le développement d’une théorie générale pour les méthodes d’extrapolation vectorielle. Celle-ci peut être utilisée sur les algorithmes nouvellement développés. La déclaration principale de cette théorie est : les méthodes d’extrapolation vectorielle sont des implémentations de la méthode d’Henrici (une généralisation de la méthode de Steffensen sur les séquences vectorielles). Ce qui est nouveau dans cette théorie est la formulation d’un théorème de Kontorovich pour la méthode de Henrici, qui définit les conditions de sa convergence. En raison de nos recherches géométriques, nous avons été de plus capables de décrire une classe de directives d’itérations scalaires, pour laquelle la transformation de Schmidt-Shanks converge seulement en une mesure.  

Cette thèse décrit les procédures traditionnelles les plus importantes pour la résolution des systèmes d’équations non linéaires. En outre, elle donne un aperçu de la théorie des méthodes linéaires de Krylov. Des exemples et graphiques illustrent nos explications.