Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

Machine-Learning for Lattice Models in and out of Equilibrium

Sandberg, Johannes LU (2021) FYSM60 20202
Mathematical Physics
Department of Physics
Abstract
Machine-learning methods have in recent years seen a great deal of use in condensed matter physics. In this thesis we apply such methods, specifically machine-learning with artificial neural networks, to the equilibrium and non-equilibrium description of the Hubbard and Hubbard-Holstein models.
In the framework of ground-state density functional theory we reproduce results from the literature regarding machine learning for the energy functional of a Hubbard chain, and show that the approach also works for predicting the exchange-correlation potential, and is applicable also in the Hubbard-Holstein model.
Working in the framework of many-body Green’s functions, we present a way to train a neural network on the self-energy of the Hubbard... (More)
Machine-learning methods have in recent years seen a great deal of use in condensed matter physics. In this thesis we apply such methods, specifically machine-learning with artificial neural networks, to the equilibrium and non-equilibrium description of the Hubbard and Hubbard-Holstein models.
In the framework of ground-state density functional theory we reproduce results from the literature regarding machine learning for the energy functional of a Hubbard chain, and show that the approach also works for predicting the exchange-correlation potential, and is applicable also in the Hubbard-Holstein model.
Working in the framework of many-body Green’s functions, we present a way to train a neural network on the self-energy of the Hubbard dimer. This self-energy is tested against the exact one, with which excellent agreement is found.
Moving on to time-dependent density functional theory, we try to represent the history-dependent exchange-correlation potential of a Hubbard dimer, subject to a specific type of time-dependent perturbation. Initial attempts using Long Short-Term Memory (LSTM) networks fail to go beyond even a simple adiabatic approximation. Applying instead a dense neural network found in the literature we achieve excellent results for this task, despite a lack of explicit history-dependence in the functional. (Less)
Popular Abstract (Swedish)
Maskininlärning har under senaste årtiondet sett stora framgångar inom en rad olika fält. Grundidén bakom maskininlärning är att istället för att komma på ett smart sätt att lösa något komplicerat problem, så kan man skapa ett datorprogram som lär sig lösa problemet åt en. Sådana metoder för att lösa problem har funnit applikationer inom en rad olika fält, och används inom allt från självkörande bilar, till chat-robotar, till översättningsverktyg. Även inom fysik-forskningen har maskininlärning börjat se stor användning.
Ett grundläggande problem inom fysiken är flerkroppsproblemet, det vill säga hur man kan beskriva och räkna på system med flera växelverkande partiklar, i synnerhet inom kvantmekaniken. När vi har flera partiklar som... (More)
Maskininlärning har under senaste årtiondet sett stora framgångar inom en rad olika fält. Grundidén bakom maskininlärning är att istället för att komma på ett smart sätt att lösa något komplicerat problem, så kan man skapa ett datorprogram som lär sig lösa problemet åt en. Sådana metoder för att lösa problem har funnit applikationer inom en rad olika fält, och används inom allt från självkörande bilar, till chat-robotar, till översättningsverktyg. Även inom fysik-forskningen har maskininlärning börjat se stor användning.
Ett grundläggande problem inom fysiken är flerkroppsproblemet, det vill säga hur man kan beskriva och räkna på system med flera växelverkande partiklar, i synnerhet inom kvantmekaniken. När vi har flera partiklar som påverkar varandra så blir problemet snabbt för svårt för ens de snabbaste superdatorerna att räkna på. För att göra det möjligt att göra beräkningar så finns det flera metoder för att angripa flerkroppsproblemet. I det här projektet så undersöker vi sätt att använda maskininlärning för att göra sådana beräkningar snabbare och mer exakta.
Den första metoden vi har använt är så kallad täthetsfunktionalteori. I täthetsfunktionalteorin så bygger beskrivningen på elektrontätheten, vilket är ett mått på hur sannolikt det är att hitta en elektron på en viss plats vid en viss tidpunkt. Problemet inom den här metoden är att räkna ut energin med hjälp utav elektrontätheten. Detta är i teorin möjligt, men i praktiken så behöver man förenklingar för att göra detta, och det är här som maskininlärning kan komma in. Om man kan lära ett maskininlärningsprogram att räkna ut den exakta energin utifrån elektrontätheten så kan man göra beräkningar snabbare och mer exakta. Detta är i synnerhet viktigt i det tidsberoende fallet, det vill säga när saker ändrar sig med tiden. I detta fall behöver vi inte bara ta hänsyn till elektrontätheten i nuet, utan också hur elektrontätheten såg ut vid tidigare tidpunkter. Hur man kan ta hänsyn till detta i sina beräkningar är ett stort problem inom täthetfunktionalteorin, och ett exempel på en situation där maskininlärning skulle kunna vara till stor nytta.
En annan metod vi använt är den så kallade Green’s-funktion-teorin. En central storhet inom den här beskrivningen är den så kallade själv-energin, vilken beskriver hur en elektron påverkar sig själv genom att påverka sin omgivning. För att räkna ut denna sjävenergi måste man i allmänhet göra olika förenklingar. Ett av målen med detta projekt är att undersöka hur man kan använda maskininlärning för att exakt räkna ut denna självenergi, i en enkel modell. (Less)
Please use this url to cite or link to this publication:
author
Sandberg, Johannes LU
supervisor
organization
course
FYSM60 20202
year
type
H2 - Master's Degree (Two Years)
subject
language
English
id
9041090
date added to LUP
2021-03-08 10:37:46
date last changed
2021-03-08 10:37:46
@misc{9041090,
  abstract     = {{Machine-learning methods have in recent years seen a great deal of use in condensed matter physics. In this thesis we apply such methods, specifically machine-learning with artificial neural networks, to the equilibrium and non-equilibrium description of the Hubbard and Hubbard-Holstein models.
In the framework of ground-state density functional theory we reproduce results from the literature regarding machine learning for the energy functional of a Hubbard chain, and show that the approach also works for predicting the exchange-correlation potential, and is applicable also in the Hubbard-Holstein model.
Working in the framework of many-body Green’s functions, we present a way to train a neural network on the self-energy of the Hubbard dimer. This self-energy is tested against the exact one, with which excellent agreement is found.
Moving on to time-dependent density functional theory, we try to represent the history-dependent exchange-correlation potential of a Hubbard dimer, subject to a specific type of time-dependent perturbation. Initial attempts using Long Short-Term Memory (LSTM) networks fail to go beyond even a simple adiabatic approximation. Applying instead a dense neural network found in the literature we achieve excellent results for this task, despite a lack of explicit history-dependence in the functional.}},
  author       = {{Sandberg, Johannes}},
  language     = {{eng}},
  note         = {{Student Paper}},
  title        = {{Machine-Learning for Lattice Models in and out of Equilibrium}},
  year         = {{2021}},
}