Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

ERA: Evolution of Residual Architectures

Lundberg, Samuel LU (2020) In Master's Theses in Mathematical Sciences FMAM05 20201
Mathematics (Faculty of Engineering)
Abstract
This thesis investigates how well a neural architecture search can find competitive image classifiers on the CIFAR-10 data set with limited computational resources. Most work done on architecture search either uses vast computational resources or narrow and strongly informed space of possible solutions.

The solution space proposed consists of residual convolutional networks with separable convolutions and is explored by a primitive evolutionary procedure. When regularizing the evolution it proceeds to find an architecture outperforming the ResNet-110 baseline. Further evolution is shown to find networks with significantly stronger average performance than random search. In comparison with Bayesian optimization and local search,... (More)
This thesis investigates how well a neural architecture search can find competitive image classifiers on the CIFAR-10 data set with limited computational resources. Most work done on architecture search either uses vast computational resources or narrow and strongly informed space of possible solutions.

The solution space proposed consists of residual convolutional networks with separable convolutions and is explored by a primitive evolutionary procedure. When regularizing the evolution it proceeds to find an architecture outperforming the ResNet-110 baseline. Further evolution is shown to find networks with significantly stronger average performance than random search. In comparison with Bayesian optimization and local search, evolution show competitive final performance. Bayesian optimization however gives unmatched sample efficiency.

One pressing matter in the process of reducing computations is how extensive networks must be trained before evaluation. Small scale experiments shows a tolerable rank-correlation between early performance and final performance of residual networks but indicates a bias for shallow networks. (Less)
Popular Abstract (Swedish)
I detta arbetet har en evolutionär algoritm utformats för att hitta artificella neurala nätverk (ANN) optimerade för att klassificera bilder.

Artificiella neurala nätverk (ANN) är en AI-teknik där hjärnans nervsystem efterliknas i ett datorprogram, med målet att datorn själv ska lära sig utföra uppgifter. Detta har visat sig mycket framgångsrikt och har gett AI-forskningen ett stort uppsving de senaste åren. Dessa datorprogram har visats kunna lära sig lösa mycket komplexa uppgifter, som att förstå tal och identifiera föremål i bilder. En av nackdelarna med ANN är att de kan se ut på många olika sett. Att hitta den optimala strukturen är tidkrävande och kräver dessutom att djupa kunskaper både om AI men även det specifika problemet.
... (More)
I detta arbetet har en evolutionär algoritm utformats för att hitta artificella neurala nätverk (ANN) optimerade för att klassificera bilder.

Artificiella neurala nätverk (ANN) är en AI-teknik där hjärnans nervsystem efterliknas i ett datorprogram, med målet att datorn själv ska lära sig utföra uppgifter. Detta har visat sig mycket framgångsrikt och har gett AI-forskningen ett stort uppsving de senaste åren. Dessa datorprogram har visats kunna lära sig lösa mycket komplexa uppgifter, som att förstå tal och identifiera föremål i bilder. En av nackdelarna med ANN är att de kan se ut på många olika sett. Att hitta den optimala strukturen är tidkrävande och kräver dessutom att djupa kunskaper både om AI men även det specifika problemet.

Därför har detta arbetet fokuserat på att automatisera designen av neurala nätverk. En algoritm som på egen hand designar optimala nätverk skulle göra användandet av AI mer tillgänglig för de som inte är experter. Detta har gjorts med en algoritm som är baserad på evolutionsteori. Algoritmen skapar en population av nätverk som får konkurera med varandra om att förökas och en mutation driver på utvecklingen, dessutom kan nätverken tillåtas att ''para sig'' för att skapa nya nätverk. Experimenten som gjordes visar att den evolutionsbaserade algoritmen hittar neurala nätverk som är bättre på att klassificera bilder än den kända nätverket ResNet-110. Dessutom visade experimenten att en algoritm baserad på mycket enkla evolutionära principer kan konkurera med sökalgoritmer baserade på klart mer avancerade statistiska principer.

Detta arbete kan direkt appliceras i till att hitta nätverk lämpade för klassificering av små bilder. Med små omformuleringar i problemet kan det även användas till andra typer av bildanalys. Den evolutionsbaserade algoritmen är dock oberoende av vilken sökning användaren är intresserad av och kan appliceras på valfritt problem. Programmet som utvecklats bygger på en existerande optimeringsmjukvara i öppen källkod och där flera sökalgoritmer finns att tillgå. (Less)
Please use this url to cite or link to this publication:
author
Lundberg, Samuel LU
supervisor
organization
course
FMAM05 20201
year
type
H2 - Master's Degree (Two Years)
subject
keywords
Neural Architecture Search, Automated Machine Learning, Black-box Optimization, Residual Networks, Convolutional Networks, Image Classification, Neuro-Evolutionary Computing
publication/series
Master's Theses in Mathematical Sciences
report number
LUTFMA-3415-2020
ISSN
1404-6342
other publication id
2020:E35
language
English
id
9021239
date added to LUP
2020-06-29 14:35:01
date last changed
2020-06-29 14:35:01
@misc{9021239,
  abstract     = {{This thesis investigates how well a neural architecture search can find competitive image classifiers on the CIFAR-10 data set with limited computational resources. Most work done on architecture search either uses vast computational resources or narrow and strongly informed space of possible solutions. 

The solution space proposed consists of residual convolutional networks with separable convolutions and is explored by a primitive evolutionary procedure. When regularizing the evolution it proceeds to find an architecture outperforming the ResNet-110 baseline. Further evolution is shown to find networks with significantly stronger average performance than random search. In comparison with Bayesian optimization and local search, evolution show competitive final performance. Bayesian optimization however gives unmatched sample efficiency.

One pressing matter in the process of reducing computations is how extensive networks must be trained before evaluation. Small scale experiments shows a tolerable rank-correlation between early performance and final performance of residual networks but indicates a bias for shallow networks.}},
  author       = {{Lundberg, Samuel}},
  issn         = {{1404-6342}},
  language     = {{eng}},
  note         = {{Student Paper}},
  series       = {{Master's Theses in Mathematical Sciences}},
  title        = {{ERA: Evolution of Residual Architectures}},
  year         = {{2020}},
}