Paper Library
\(\rightarrow\) Index of titles
Papers with description:
Reinforcement Learning with Unsupervised Auxiliary Tasks
(M. Jaderberg, V. Mnih, W. M. Czarnecki, T. Schaul, J. Z. Leibo, D. Silver and K. Kavukcuoglu; 16 Nov 2016)
…
Entsprechender Blog Post: https://deepmind.com/blog/reinforcement-learning-unsupervised-auxiliary-tasks//
Some GitHub Code: https://github.com/miyosuda/unreal
Evolution Strategies as a Scalable Alternative to Reinforcement Learning
(T. Salimans, J. Ho, X. Chen and I. Sutskever; 10 Mar 2017)
In diesem Paper werden Evolutionäre Algorithmen, sogenannte “Evolution Strategies” (ES), als Alternative zu aktuellen Reinforcement Learning (RL) Strategien, wie Q-Learning und Policy Gradient, untersucht. Es wird gezeigt, dass Evolutionäre Strategien in den schwierigsten, aktuell lösbaren Problemen mit Reinforcement Learning konkurrieren können. Experimente umfassen stetige Robotersteuerungsprobleme aus “OpenAI Gym” wie 2D/3D Hüpfen und Laufen, simuliert mit der Physiksimulation “MuJoCo”, sowie verschiedene Atari-Spiele. Hier werden aktuelle RL-Techniken wie Trust Region Policy Optimization (TRPO) und A3C mit ES verglichen. Die Experimente belegen, dass ES eine durchaus geeignete Lösungsstrategie für RL-Probleme darstellt, die sehr gut mit der Zahl der CPUs skaliert. Evolutionäre Algorithmen sind Ableitungs-freie, heuristische Such-Verfahren, wobei in dieser Arbeit speziell sie sogenannten “Natural Evolution Strategies” (NES) zum Einsatz kommen. Exploration wird bei RL und ES unterschiedlich umgesetzt: Bei RL werden Aktionen von einer stochastischen Policy gezogen, und bei ES werden verschiedene Parametrisierungen der Policy gezogen. RL-Verfahren wie Policy Gradient fügen also Rauschen in den “Action-Space” ein, während Evolutionäre Verfahren das Rauschen direkt in den Parameter-Raum (also in die Parametrisierung der Policy) einfügen. Insgesamt können mehrere Vorteile von Evolutionären Algorithmen herausgestellt werden: Der wichtigste Punkt ist, dass sie stark parallelisierbar sind, weil keine vollen Gradienten, sondern lediglich das skalare Ergebnis und der “random Seed” zwischen den Prozessen ausgetauscht werden müssen (“low communication bandwidth requirement”). Ein besonders beeindruckendes Ergebnis ist hier, dass der Task des 3D humanoiden Laufens verteilt auf 80 Maschinen und 1440 CPUs mit ES in nur 10 Minuten gelöst werden kann, während RL einen Tag zur Lösung dieses Tasks benötigt. Als weitere Vorteile werden die Invarianz bzgl. “Action Frequency” und verzögerten Rewards, sowie ein besseres exploratives Verhalten genannt. In dem Task des 3D humanoiden Laufens wurden z.B. auch seitwärts und rückwärts gerichtete Laufstrategien mit ES gelernt, die mit RL (hier: TRPO) nie beobachtet wurden. …
Entsprechender Blog Post: https://blog.openai.com/evolution-strategies/
Code auf GitHub: https://github.com/openai/evolution-strategies-starter
Learning Invariant Feature Spaces to Transfer Skills with Reinforcement Learning
(A. Gupta, C. Devin, Y. Liu, P. Abbeel and S. Levine; 8 Mar 2017)
Allgemein gesprochen wird in diesem Paper untersucht, wie mittels “Reinforcement Learning” Fähigkeiten zwischen morphologisch verschiedenen Agenten (z.B. einem 3-Achsen-Roboterarm und einem 4-Achsen-Roboterarm) übertragen werden können. Die Idee ist es, ähnliche Fähigkeiten (sogenannte “Proxy Skills”), die beide Agenten bereits erlernt haben, zu nutzen, um einen invarianten Feature-Space zu trainieren, der wiederum verwendet wird, um neue Skills von einem Agenten zum Anderen zu übertragen. Mit Hilfe der Fähigkeiten, die bereits von beiden Agenten erlernt wurden, kann jeder Agent ein Mapping seiner States in einen invarianten Feature-Space generieren. Dieser invariante Feature-Space ermöglicht es dann jedem Agenten, eine neue Fähigkeit von dem jeweils anderen Agenten zu erlernen. Dazu wird das Ausführen der neuen Fähigkeit in den invarianten Feature-Space projiziert und die korrespondierenden Features durch eigene Actions nachverfolgt. Der invariante Feature-Space dient der Modellierung einer Reward-Funktion, die es dem lernenden Agenten erlaubt, nur solche Aspekte des lehrenden Agenten zu imitieren, die gegenüber den morphologischen Unterschieden (z.B. 3 vs. 4 Achsen) invariant sind. Für das Mapping der Zustandsräume (“State Spaces”) der Agenten in einen invarianten Feature-Space wird ein tiefes neuronales Netz verwendet. Formalisiert wird das “Skill-Transfer-Problem”, indem ein “Source Domain” und ein “Target Domain”, bestehend aus Zustands- und Aktionsraum, sowie Transition- und Reward-Funktion, betrachtet werden. Während sich Zustandsräume, Aktionsräume und Transition-Funktionen der beiden Domains stark unterscheiden können, sollen die Reward-Funktionen strukturelle Ähnlichkeiten aufweisen (Beispiel: 3- vs. 4-Achsen-Roboterarm, also 3- vs. 4-dimensionale Aktionen und Zustände, aber gleicher Task, bei dem nur die Position des Endeffektors relevant ist). Weiterhin wird der Zustandsraum jeweils in einen Agenten-spezifischen und einen Task-Spezifischen Zustand unterteilt. Bereits erworbene, ähnliche Fähigkeiten (“Proxy Skills”) werden genutzt, um zu lernen, welche Paare von Agenten-spezifischen Zuständen zwischen beiden Räumen korrespondieren. Ein sehr einfacher Ansatz hierfür ist ein zeitlich-basiertes Zusammenführen der States, d.h. es werden Zustände gepaart, die im gleichen Zeitschritt der Task-Ausführung in beiden Domains beobachtet wurden. Dieser Ansatz setzt jedoch gleiche Ausführungsgeschwindigkeiten gleicher Tasks in verschiedene Domains voraus. Ein robusterer Ansatz, der hier verwendet wird, ist das sogenannte “Dynamic Time Warping” (DTW) zum Erlernen von Korrespondenzen zwischen zeitlich variierenden Sequenzen. Es wird eine alternierende Optimierung durchgeführt, die zwischen dem Erlernen eines gemeinsamen Features-Spaces mittels aktuell geschätzten Korrespondenzen und Neu-Schätzung der Korrespondenzen mittels des aktuell gelernten Feature-Raumes wechselt. Das Erlernen eines gemeinsamen Feature-Spaces wird folgendermaßen modelliert: Gegeben ist eine Paarung von korrespondierenden Zuständen. Gesucht sind zwei durch neuronale Netze parametrisierte Funktionen (“Mappings”), die angewandt auf die korrespondierenden Zustandspaare möglichst gleiche Werte ergeben sollen (“Siamese Networks”, die allein durch die Zielfunktion miteinander verknüpft sind; keine Verknüpfung der Gewichte zwischen beiden Netzen). Gleichzeitig sollen diese Funktionen aber auch möglichst viele Informationen über den Ursprungsraum bewahren. Deshalb wird ein zweites Paar von Decoder-Netzen trainiert, die vom gemeinsamen Feature-Space zurück zu den entsprechenden Originalzuständen mappen, mit dem Ziel die Rekonstruktionsqualität der Originalzustände zu optimieren. Weil die gelernten Mappings in den gemeinsamen, invarianten Feature-Space nicht zwingend invertierbar sein müssen, lassen sich damit States aus dem “Source Domain” nicht direkt in den “Target Domain” übertragen (kein direkter Policy-Transfer). Stattdessen wird zum Erlernen einer guten Target-Domain-Policy nun ein Reinforcement Learning Ansatz verwendet, der die beiden Mappings in den gemeinsamen Feature-Space für die Reward-Modellierung nutzt. Genauer gibt es in der Reward-Funktion zusätzlich zum “Task-Performing-Reward” noch einen gewichteten Term für den “Transfer-Reward”, der jeweils die Gleichheit der eingebetteten States (gewonnen aus der optimalen bzw. aktuell gelernten Policy im aktuellen Zeitschritt) bewertet. Die Gewichtung modelliert dabei den Tradeoff zwischen Skill-Transfer und komplettem neu Erlernen von denjenigen Aspekten der neuen Fähigkeit, die aufgrund der morphologischen Unterschiede zwischen den Domains nicht übertragbar sind. Anhand von Experimenten mit simulierten Roboterarmen konnte gezeigt werden, dass neue Fähigkeiten mit dem hier vorgestellte “Skill-Transfer-Ansatz” wesentlich schneller erlernt werden, insbesondere in Umgebungen mit nur spärlichem Reward-Vorkommen, in denen der Neuerwerb bestimmter Fähigkeit in endlicher Zeit ohne Transfer teilweise gar nicht möglich ist.
Wasserstein GAN
(M. Arjovsky, S. Chintala and L. Bottou; 26 Jan 2017)
In diesem Paper wird der sogenannte “Wasserstein GAN” (WGAN)-Algorithmus als Alternative zum herkömmlichen GAN-Training eingeführt. Es wird theoretisch und experimentell anhand des LSUN-Bedrooms Datensatzes gezeigt, dass der WGAN-Algorithmus die Stabilität des Lernens deutlich erhöht, dass er Probleme wie “Mode Collapse” eliminiert, und dass er aussagekräftige Lernkurven liefert, die sowohl für’s Debugging als auch für die Hyperparameter-Suche hilfreich sind. Insgesamt enthält das Paper sehr viel Theorie speziell zu den verschiedenen Maßen für den Abstand zwischen der parametrisierten Modell-Verteilung und der tatsächlichen Verteilung in den Daten. Insbesondere wird hier die sogenannte “Earth Mover-Distanz” (EM-Distanz; auch “Wasserstein-1”-Metrik) mit anderen populären Abstandsmaßen für Wahrscheinlichkeitsverteilungen (“Total Variation-Distanz”, “Kullback-Leibler-Divergenz”, “Jensen-Shannon-Divergenz”) verglichen und als am besten geeignete Zielfunktion (mit den besten mathematischen Eigenschaften) für das hier beschriebene Erlernen von Wahrscheinlichkeitsverteilungen herausgestellt. Für die tatsächliche praktische Anwendung wird schließlich noch eine Approximation für die Optimierung der EM-Distanz eingeführt. Der “Wasserstein GAN”-Algorithmus enthält diese approximierte Optimierung der EM-Distanz, wobei die dabei zu optimierenden Gewichte nach jedem Gradientenschritt auf einen festen Bereich beschränkt/abgeschnitten werden. Weil die EM-Distanz stetig und fast überall differenzierbar ist, kann die “Critic” (der Diskriminator) bis zur Optimalität trainiert werden. Dies wiederum beseitigt das bekannte “Mode Collapse”-Problem und macht das für herkömmliche GANs so wichtige, geschickte Ausbalancieren zwischen Generator- und Diskriminatortraining überflüssig. Ein weiterer Vorteil neben der erhöhten Stabilität des WGAN-Algorithmusses ist die Korrelation der Zielfunktionsmetrik mit der Konvergenz des Generators, also der Qualität der generierten Beispiele (z.B. Bilder), was eine Untersuchung verschiedener Modelle, Hyperparameter, etc. deutlich vereinfacht, weil man anstatt der generierten Beispiele nur noch die Trainingskurven betrachten muss. Ein Nachteil des WGAN-Ansatzes ist, dass das Training bei Verwendung eines Momentum-basierten Optimierers wie “Adam” für die “Critic”, oder bei Verwendung hoher Lernraten instabil wird. Die schlechte “Performance” mit Momentum-basierten Verfahren wird hier auf die Tatsache zurückgeführt, dass die Zielfunktion für die “Critic” nicht-stationär ist. Im Paper wird deshalb “RMSProp” als Optimierungsverfahren gewählt, weil dies auch mit nicht-stationären Problemen gut funktioniert.
PyTorch-Code auf GitHub: Wasserstein GAN
Kommentare auf reddit: https://www.reddit.com/r/MachineLearning/comments/5qxoaz/r_170107875_wasserstein_gan/
Connecting Generative Adversarial Networks and Actor-Critic Methods
(D. Pfau and O. Vinyals; 6 Oct 2016)
Auf den ersten Blick werden erstmal nur die Gemeinsamkeiten beider Verfahren besprochen, jedoch noch keine praktische Verknüpfung durchgeführt. … Bearbeitung wird noch fortgesetzt …
GA3C: GPU-based A3C for Deep Reinforcement Learning
(M. Babaeizadeh, I. Frosio, S. Tyree, J. Clemons and J. Kautz; 18 Nov 2016)
In diesem Paper werden die rechnerischen Aspekte einer hybriden CPU/GPU Implementierung des Asynchronen Advantage Actor-Critic (A3C) Algorithmusses (s.u.) untersucht. Im Gegensatz zu den Deep-Q-Netzen benötigt der A3C-Algorithmus keinen großen “Replay-Speicher” mit vorherigen Erfahrungen des Agenten, sondern stabilisiert das Lernen über Updates mehrerer gleichzeitig agierender Agenten. Diese gleichzeitig agierenden Agenten optimieren einen globalen DNN-Controller mittels asynchronem Gradientenabstieg. Die Gewichte des DNNs werden dabei auf einem zentralen Parameter-Server gespeichert. Die Agenten berechnen Gradienten und senden Updates zum Server, der zwischen den Updates neue Gewichte zu den Agenten schickt um eine geteilte Policy zu erhalten. Hier wurde nun ein Hybrid aus GPU- und CPU-A3C (genannt GA3C) in TensorFlow implementiert und hinsichtlich einer effizienten Systemauslastung und dem Erreichen der veröffentlichten Atari-Scores optimiert. Die primären Komponenten dieses Hybrids sind ein traditionelles DNN-Controller-Modell mit Training und Vorhersagen auf der GPU, sowie eine multi-process, multi-threaded CPU-Architektur, bestehend aus Agenten, Prediktoren und Trainern. Anders als beim Original-Ansatz hat hier nicht jeder Agent seine eigene Kopie des Modells, sondern stellt vor jeder Aktion Policy-Anfragen in eine “Prediction Queue” und setzt regelmäßig einen Batch aus Input/Reward-Erfahrungen in eine “Training Queue”. Der Prediktor-Thread, entfernt alle unmittelbar zugänglichen Policy-Anfragen aus der “Prediction Queue”, bündelt diese in eine einzelne Inferenz-Anfrage und schickt sie an das GPU-DNN-Modell. Sobald Vorhersagen fertiggestellt sind, liefert der Prediktor die angefragte Policy zu dem jeweiligen, wartenden Agenten zurück. Der Trainer-Thread entfernt Batches aus Input/Reward-Erfahrungen aus der “Training Queue” und stellt diese dem GPU-DNN-Modell für Updates zur Verfügung. Um Latenzen auzuräumen, können mehrere Prediktoren und Trainer gleichzeitig arbeiten. Um eine optimale Anzahl von Agenten, Prediktoren und Trainern zu bestimmen, so dass die Ressourcen-Nutzung und Lerngeschwindigkeit des Systems maximal sind, wird die Metrik “Training per second” (TPS) eingeführt, welche die Rate beschreibt, mit der Batches aus Input/Reward-Erfahrungen von der “Training Queue” entfernt werden, also mit der Modell-Updates durchgeführt werden. Als einfache Regel entspricht hier die Anzahl der Agenten der Anzahl der CPU-Kerne mit zunächst 2 Prediktoren und 2 Trainern. Es wird dann ein “annealing” Prozess vorgeschlagen, der das System dynamisch konfiguriert, d.h. jede Minute wird die Zahl der Prediktoren und Trainer zufällig um +/-1 herauf- bzw. herabgesetzt und das neue Setting anhand der TPS-Metrik bewertet und entsprechend akzeptiert oder verworfen. Weil die beste, so bestimmte Konfiguration immer noch eine durchschnittliche GPU-Auslastung von nur 56% aufweist, lässt sich das GPU-Controller-DNN noch tiefer und breiter bauen ohne merkliche zusätzliche Kosten zu verursachen. Dies ist insbesondere für Probleme in der echten Welt (z.B. autonomes Fahren) von hoher Relevanz. Insgesamt lernt die hier vorgestellte GPU/CPU-Implementierung (insbesondere für größere DNNs, die die GPU vollständig auslasten) wesentlich schneller als die reine CPU-Variante: Nach nur einem Trainingstag wurden hier für die Atari-Tasks ähnliche Scores erzielt wie nach 4 Trainingstagen mit der orignalen A3C-Implementierung.
Siehe auch: Reinforcement Learning through Asynchronous Advantage Actor-Critic on a GPU und entsprechende Diskussion mit den Reviewern
Code auf GitHub: GA3C
Asynchronous Methods for Deep Reinforcement Learning
(V. Mnih, A. Puigdomènech B., M. Mirza, A. Graves, T. P. Lillicrap, T. Harley, D. Silver and K. Kavukcuoglu; 4 Feb 2016)
In diesem Paper wird eine neue asynchrone Lernstrategie für Deep Reinforcement Learning (Deep RL) vorgestellt. Kernidee ist der asynchrone Einsatz von mehreren parallelen “Actor-Lernern” (Agenten), d.h. ein asynchroner Gradientenabstieg für die Optimierung mehrerer durch tiefe neuronale Netze (DNNs) modellierter Agenten. Das aus dem DQN-Paper bekannte “Experience Replay” zur Handhabung zeitlich korrelierter, nicht-stationärer Daten, wird hier abgelöst durch eine parallele Ausführung mehrerer Agenten auf mehreren Instanzen der Umgebung in asynchroner Art und Weise. In jedem Zeitschritt beobachten die parallel ausgeführten Agenten eine Vielzahl von verschiedenen Zuständen in verschiedenen Bereichen der Umgebung, was die zeitliche Korrelation in den Daten verringert und den Prozess stationärer und somit insgesamt stabiler werden lässt. Eine zusätzliche Verbesserung (d.h. Diversität in der Raumerkundung) wird durch die Anwendung verschiedener Explorationsstrategien für die verschiedenen Agenten erzielt. Hier werden “Epsilon-greedy” Explorationsstragien verwendet, wobei Epsilon für jeden Agenten periodisch aus einer bestimmten Verteilung gezogen wird. Insgesamt agieren hier also mehrere lokale Agenten gleichzeitig und optimieren einen globalen DNN-Controller mittels asynchronem Gradientenabstieg. Die hier vorgestellte asynchrone Lernstruktur ermöglicht es, auch on-policy Verfahren (z.B. Actor-Critic-Verfahren) kombiniert mit tiefen neuronalen Netzen als Funktionsapproximatoren robust und effektiv anzuwenden. Ein praktischer Vorteil des hier vorgestellten Ansatzes ist die Einsparung von Rechzeit und -leistung: Alle Experimente wurden auf einem einzelnen Rechner mit einer standard multi-core CPU ausgeführt. Außerdem konnte eine Einsparung in der Trainingszeit beobachtet werden, die sich ungefähr linear zur Anzahl der parallelen Agenten verhält. Insgesamt wurden 4 bekannte RL-Verfahren mit der hier vorgestellten asynchronen Lernstrategie getestet: “1-Step Q-Learning”, “1-Step SARSA”, “n-Step Q-Learning” and “Advantage Actor-Critic”. Am besten hat dabei die asynchrone Variante von Advantage Actor-Critic (“Asynchronous Advantage Actor-Critic” = A3C) abgeschnitten. Diese schlägt sogar die Deep-Q-Netze in dem Atari-Task und liefert zudem gute Policies für die Autorennen-Simulation “TORCS 3D”, für kontinuierliche Motorsteuerungs-Aufgaben (simuliert mit “MuJoCo”), und für 3D-Labyrinth-Aufgaben (simuliert mit “Labyrinth”) (siehe auch folgende Videos zum TORCS-Task, zum Motor Control-Task und zum Maze-Task). Für die Modellierung der globalen Policy- und Value-Funktions-Parameter (also des globalen DNN-Controllers) wurde hier ein ConvNet mit einem Softmax-Output für die Policy und einem linearen Output für die Value-Funktion verwendet, wobei Nicht-Ausgabe-Schichten geshared werden. Zudem wurde die Entropie der Policy als Regularisierungsterm zur Zielfunktion hinzuaddiert, was die Exploration verbessert, indem eine zu starke Streuung der Aktionswahrscheinlichkeiten verhindert wird. Das (beste) hier verwendete Optimierungsverfahren ist RMSProp mit zwischen den Threads geteilter Statistik. Für das Policy-Training beim Atari-Spiele-Task wurden sowohl feedforward Agenten mit ähnlicher Netzstruktur wie im DQN-Paper trainiert, als auch rekurrente Agenten mit zusätzlichen 256 LSTM-Zellen nach dem letzten hidden Layer. Nach nur 4 Trainingstagen auf 16 CPU-Cores wurden hier bereits bessere Ergebnisse erziehlt als nach 8-10 Tagen DQN-Training auf Nvidia K40 GPUs. Weitere Verbesserungen könnten eine Kombination des hier vorgestellten asynchronen RL-Frameworks mit der “Experience Replay”-Technik beinhalten, sowie eine verbesserte Schätzung der Advantage-Funktion wie z.B. in dem GAE-Paper beschrieben.
Siehe auch: Simple Reinforcement Learning with Tensorflow Part 8: Asynchronous Actor-Critic Agents (A3C)
OpenAI Implementierung von A3C auf GitHub: A3C als Universe-Starter-Agent
High-Dimensional Continuous Control Using Generalized Advantage Estimation
(J. Schulman, P. Moritz, S. Levine, M. Jordan and P. Abbeel; 8 Jun 2015)
Es wird ein modell-freier “Policy-Gradient-Ansatz” mit neuronalen Netzen als Funktionsapproximatoren betrachtet. Daraus ergeben sich im Wesentlichen zwei Probleme: 1.) die große Anzahl benötigter “Samples”, und 2.) die Schwierigkeit im Erzeugen stabiler Lösungen bei sich verändernden Eingangsdaten. Um das erste dieser Probleme zu lösen, wird ein sogenannter “Generalized Advantage Estimator (GAE)” eingeführt: Ein exponentiell gewichteter Schätzer für die “Advantage-Funktion” (Q-Funktion - V-Funktion), der die Varianz erheblich reduziert und gleichzeitig den Bias aber auf einem akzeptablen Level lässt. Die Konstruktion des “Advantage-Funktion”-Schätzers hat große Ähnlichkeit mit der TD(lambda)-Schätzung der “Value-Funktion” und hängt von zwei verschiedenen Parametern ab, von denen der Eine (gamma) hauptsächlich die Skalierung der Value-Funktion bestimmt, während der Andere (lambda) eher von der Genauigkeit der Value-Funktion abhängt. Für Werte von lambda zwischen 0 und 1 beschreibt der GAE einen Kompromiss zwischen Bias und Varianz (lambda = 1 -> hohe Varianz, lambda = 0 -> niedrige Varianz, aber höherer Bias). Empirisch gefundene Werte für lambda und gamma zeigen, dass lambda wesentlich kleiner gewählt werden sollte als gamma. Zur Lösung des zweiten Problems (Generierung stabiler Lösungen) wird eine Trust Region-Optimierung für sowohl die Policy, als auch die Value-Funktion verwendet (beide Funktionen sind hier durch neuronale Netze modelliert). Die Autoren weisen darauf hin, dass das oben beschriebene Varianz-Reduktions-Verfahren für Policy-Gradients bereits in früheren Arbeiten formuliert wurde. Hier wird dieses Verfahren (welches sie GAE nennen) jedoch theoretisch und experimentell analysiert, wodurch die Kombination mit einem allgemeineren Set von Algorithmen (wie dem hier verwendeten Batch Trust Region-Algorithmus) ermöglicht wird. Praktische Ergebnisse werden für 3D Locomotion-Tasks mit zwei- und vier-beinigen, simulierten Robotern gezeigt. Dazu wird die Physiksimulation MuJoCo (= Multi-Joint dynamics with Contact) verwendet. Außerdem wird eine Policy gelernt, die es einem zweibeinigen Roboter erlaubt, aus liegendem Zustand aufzustehen (siehe auch entsprechendes Videomaterial). Für die Zukunft wünschen sich die Autoren eine automatische Parameterbestimmung für gamma und lambda, sowie einen detaillierten Vergleich mit dem unten beschriebenen DDPG-Algorithmus - ein konkurrierender Ansatz mit “One-Step Return” (d.h. lambda=0), der hier zu hohem Bias und schlechter “Performance” geführt hat, in unten beschriebener Arbeit aber mit entsprechenden Network-Tuning-Tricks (“Experience Replay”, “Target-Netze”, etc.) sehr gute Erbebnisse erzielt hat.
Entsprechender Python-Code von J. Schulman: https://github.com/joschu/modular_rl
Siehe auch: https://gym.openai.com/envs/Ant-v1
The Predictron: End-To-End Learning and Planning
(D. Silver, H. van Hasselt, M. Hessel, T. Schaul, A. Guez, T. Harley, G. Dulac-Arnold, D. Reichert, N. Rabinowitz, A. Barreto and T. Degris; 20 Jan 2017)
Continuous control with deep reinforcement learning
(T. P. Lillicrap, J. J. Hunt, A. Pritzel, N. Heess, T. Erez, Y. Tassa, D. Silver and D. Wierstra; 9 Sep 2015)
Kurzzusammenfassung:
Es wird ein “off-policy”, “model-free” “Actor-Critic”-Ansatz verfolgt, um Probleme mit kontinuierlichen Aktionsräumen zu lösen. Actor und Critic werden hierbei durch je ein neuronales Netz modelliert. Um das Ganze trainierbar zu machen, werden der DPG-Algorithmus von Silver et al. und die Tricks aus dem DQN-Algorithmus von Mnih et al. (“Experience Replay” und “Target Networks”) kombiniert. Es entsteht der sogenannte “Deep DPG”-Algorithmus, der selbst einem Planer wie “iLQG” (dem das zugrundeliegende physikalische Modell bekannt ist) in vielen Tasks überlegen ist und sogar aus Pixel-Beobachtungen gute Policies ermitteln kann.
Ausführlichere Zusammenfassung:
Basierend auf einer früheren Arbeit zu Deterministic Policy Gradients (DPG) von D. Silver et al. und mit Hilfe der Deep Learning Tricks aus dem populären Deep Q-Networks (DQN)-Paper (bzw. dessen Vorgänger-Paper) ist der sogenannte “Deep Deterministic Policy Gradients (DDPG) Algorithmus entstanden, der Probleme mit kontinuierlichen Zustandsräumen und vor allem auch kontinuierlichen Aktionsräumen lösen kann. Der zunächst vielleicht naheliegende Ansatz, den Aktionsraum zu diskretisieren führt leider i.d.R. nicht zum gewünschten Erfolg, da die Aktionen exponentiell mit der Anzahl der Freiheitsgrade (z.B. Gelenke eines Roboterarms) zunehmen (“Curse of Dimonsionality”) und eine hinreichend feine Diskretisierung deshalb oftmals nicht praktikabel ist. Der hier vorgestellte DDPG-Algorithmus ist ein “model-free”, “off-policy”, “Actor-Critic” Algorithmus, der neuronale Netze als Funktionsapproximatoren verwendet und “Reinforcement Learning Policies” in kontinuierlichen Aktionsräumen erlernen kann. In Actor-Critic Algorithmen generiert der “Actor” (der die Struktur der Policy-Funktion beschreibt) bei gegebenem Zustand eine Aktion und die Critic (die die Struktur der Value-Funktion beschreibt) ermittelt daraufhin zu gegebenem Zustand, sowie der generierten Aktion und dem entsprechenden “Reward” ein Temporal-Difference (TD) Fehlersignal, welches das Lernen des Actors und der Critic in eine entsprechende Richtung steuert. Hier bestehen Actor und Critic aus je einem neuronalen Netz. Das Actor-Netz bekommt den aktuellen Zustand als Input und liefert als Output eine Zahl, die eine Aktion (aus dem kontinuierlichen! Aktionsraum) repräsentiert. Die Ausgabe des Critic-Netzes ist der geschätzte Q-Wert des aktuellen Zustands und der vom Actor-Netz gewählten Aktion. Das DPG Theorem liefert die Update-Regel für die Gewichte des Actor-Netzes. (Silver et al. haben bewiesen, dass der stochastische Policy-Gradient äquivalent zum deterministischen Policy-Gradienten ist. Der Policy-Term in der entsprechenden deterministischen Policy-Gradientenberechnung ist wiederum unabhängig von den Aktionen und es wird nur noch der Gradient der Ausgabe des Critic-Netzes bezüglich seiner Parameter und der Gradient der Ausgabe des Actor-Netzes bezüglich seiner Parameter benötigt.)
Die Gewichte des Critic-Netzes werden mit den TD-Fehlersignal Gradienten aktualisiert. Hierbei werden zwei wesentliche Tricks aus dem DQN-Paper übernommen: 1.) Anwendung der “Experience Replay” Technik: Verwendung eines “Replay-Buffers” um Experiences (Erfahrungen des Agenten bzw. Transitions (s_t,a_t,r_t,s_t+1)) während des Trainings abzuspeichern und später für das Lernen dann zufällig wieder auszuwählen. (Dadurch werden Korrelationen zwischen verschiedenen Trainingsepisoden minimiert.) 2.) Die Netze werden mit Target-Netzen (Ziel-Actor-Netz und Ziel-Q-Netz) trainiert, die konsistente Ziele für die TD-Fehlersignalberechnung liefern und den Lernalgorithmus regularisieren. Zudem wird “Batch-Normalization” angewandt, um die unterschiedlichen Komponenten einer Beobachtung (z.B. Position, Geschwindigkeit, …) mit unterschiedlichen physikalischen Einheiten, auf einen ähnlichen Wertebereich zu skalieren. Die Policy-Exploration kann bei dem off-policy Algorithmus DDPG unabhängig vom Lernalgorithmus durchgeführt werden. Hier wird ein Rauschen zur Actor-Policy addiert, das mit dem sogenannten “Ornstein-Uhlenbeck Prozess” modelliert wurde. (Der Ornstein-Uhlenbeck prozess modelliert die Geschwindigkeit eines Brown’schen Partikels unter dem Einfluss von Reibung, was zeitlich korrelierte, um 0 zentrierte Werte für das Rauschen liefert.) Getestet wird der DDPG-Algorithmus in mit “MuJoCo” simulierten physikalischen Umgebungen und für verschiedene Tasks wie “Cartpole Swing-up”, “Arm Reaching a Target”, “Grasping and Moving to Target”, “Puck-Hitting”, “Locomotion” and “Driving Simulation” (“Torcs”). Es werden “Action-Repeats” durchgeführt, d.h. für jeden Zeitschritt des Agenten werden 3 Zeitschritte der Simulation durchgeführt, wobei die Aktion des Agenten jedes mal wiederholt und die Szene gerendert wird. Die Beobachtung, die der Agent dann zurückbekommt besteht somit aus 9 FeatureMaps (der RGB jedes der 3 Renderings), was es dem Agenten ermöglicht, aus den Unterschieden zwischen den Frames Geschwindigkeiten zu ermitteln. DDPG hat insgesamt gute Policies erlernt (siehe auch Video), die oftmals sogar besser waren als die mit iLQG ermittelten Policies (einem Planer mit vollem Zugriff auf das zugrundeliegende physikalische Model und dessen Ableitungen). Außerdem war es für die einfacheren Tasks sogar möglich, gute Policies aus Pixel-Beobachtungen zu erlernen.
Sehr hilfreicher Blog Post von P. Emami: Deep Deterministic Policy Gradients (DDPG) in Tensorflow
Early Visual Concept Learning with Unsupervised Deep Learning
(I. Higgins, L. Matthey, X. Glorot, A. Pal, B. Uria, C. Blundell, S. Mohamed and A. Lerchner; 17 Jun 2016)
Kurzzusammenfassung:
Es wird eine biologisch motivierte Gewichtung des “Variational Bound” im “VAE-Framework” eingeführt. Ziel dieser Gewichtung ist die Entzerrung der generativen Faktoren in den latenten Variablen. D.h. durch eine möglichst optimale Gewichtung des “Variational Bound” wird eine latenten Repräsentation gelernt, bei der einzelne latente Variablen besonders sensitiv gegenüber Änderungen einzelner generativer Faktoren sind, während sie durch Änderungen anderer generativer Faktoren weitgehend unbeeinflusst bleiben. Dadurch sollen die latenten Variablen die zugrundeliegenden Strukturen der sichtbaren Welt besser widerspiegeln. D.h. wenn dem VAE z.B. neue, zuvor ungesehene Objekte gezeigt werden, bleibt dieser in der Lage, sinnvolle Aussagen über deren Eigenschaften wie Größe und Position zu machen, ohne die tatsächliche Identität der neuen Objekte zu kennen.
Ausführlichere Zusammenfassung:
Hier wird eine biologisch motivierte Gewichtung des A Priori-Regularisierungsterms im Variational Autoencoder (VAE) eingeführt. (Bei dem A Priori-Regularisierungsterm im VAE handelt es sich um die Kullback-Leibler Divergenz zwischen tatsächlicher, bedingter Verteilung der latenten Variablen und gewünschter A Priori-Verteilung, meist die Standard-Normalverteilung, der latenten Variablen.) Durch die Gewichtung des VAE-Regularisierungsterms (des sogenannten “Variational Bound”) mit möglichst optimalem Gewicht (i.d.R. > 1) wird eine entzerrte (“disentangled”) latente Repräsentation gelernt. (Gewichtung 0 wäre der standard Autoencoder und Gewichtung 1 wäre der bekannte VAE.) In dieser entzerrten latenten Repräsentation sind einzelne latente Variablen besonders sensitiv gegenüber Änderungen einzelner generativer Faktoren, während sie durch Änderungen der anderen generativen Faktoren weitgehend unbeeinflusst bleiben. Neben der optimierten Gewichtung des “Variational Bound” wird auch empfohlen, die generativen Faktoren in den Daten möglichst dicht zu samplen um Mehrdeutigkeiten auszuschließen. Schließlich wird darauf hingewiesen, dass die VAE-Rekonstruktionsqualität ein schlechter Indikator für die gelernte Entzerrung der latenten Variablen ist. Vielmehr liefern gut entzerrte latente Repräsentationen oftmals nur verschwommene Rekonstrutionen, während scharfe Rekonstruktionen meist aus miteinander verwobenen latenten Repräsentationen hervorgehen. Dies wird als einer der Hauptgründe angesehen, weshalb die Fähigkeit der VAEs, die latente Repräsentation bzgl. deren Daten-generierender Faktoren zu entzerren bisher übersehen wurde. Um den Grad der Entzerrung in den latenten Variablen zu messen, wird hier eine Metrik eingeführt, die einen linearen Klassifizierer verwendet, um zu entscheiden welcher Faktor den Übergang zwischen zwei Frames im Datensatz verursacht hat. Dabei sind beide Frames bis auf eine zufällige Änderung in einem einzigen generativen Faktor, identisch. Zudem ist der Klassifizierer so einfach gehalten, dass er keine Kapazitäten besitzt, die generativen Faktoren im latenten Raum selbst zu entzerren, d.h. gute Klassifikationsergebnisse werden tatsächlich nur dann erzielt, wenn die generativen Faktoren im latenten Raum bereits hinreichend entzerrt sind. Insgesamt sollen VAEs durch das Erlernen solch entzerrter Repräsentationen der Daten-generierenden Faktoren, ein besseres Verständnis der zugrundeliegenden Strukturen der sichtbaren Welt entwickeln. D.h. wenn dem VAE z.B. neue, zuvor ungesehene Objekte gezeigt werden, soll dieser möglichst immernoch in der Lage sein, sinnvolle Aussagen über deren Eigenschaften wie Größe und Position zu machen, ohne die Identität der neuen Objekte kennen zu müssen.
Getestet wurde diese Transferleistung, indem sowohl eine entzerrte, als auch eine miteinander verwobene latente Repäsentation eines Datensatzes von 2D-Objekten (Herz, Oval und Quadrat) gelernt wurden. (Die entzerrte Variante wurde dabei mit “Variational Bound”-Gewichtung 4 trainiert und die verwobene Variante mit Gewichtung 0.) Dabei haben sich die 2D-Objekte immer durch 4 variierende Faktoren unterschieden, nämlich Skalierung, Rotation, Position in x-Richtung und Position in y-Richtung. Danach wurden den beiden trainierten Modellen neue 2D-Objekte (Pilz, Rechteck und Dreieck) mit den gleichen 4 variierenden Faktoren präsentiert. Während das Modell mit entzerrter latenter Repäsentation, die 4 Eigenschaften gut auf die neuen Objekte übertragen konnte, hat das Modell mit verwobenen generativen Faktoren in der latenten Repräsentation diese Transferleistung so nicht erbringen können.
Improving generalization performance using double backpropagation
(H. Drucker and Y. L. Cun; 6 Nov 1992)
siehe auch:
Unrolled Generative Adversarial Networks
(L. Metz, B. Poole, D. Pfau and J. Sohl-Dickstein; 7 Nov 2016)
Um das Training von GANs zu stabilisieren wird ein sogenanntes “Diskriminator-Unrolling” eingeführt. D.h. um die Zielfunktion für den Generator zu verbessern, wird nicht einfach das Ergebnis des aktuellen Diskriminators verwendet, sondern ein Kompromiss aus austrainiertem, idealen Diskriminator und aktuellem Diskriminator ermittelt. Dies soll es dem Generator ermöglichen, frühzeitig zu erkennen, dass die Ausrichtung auf nur eine bestimmte Zielstruktur den Diskriminator zwar kurzzeitig täuschen, jedoch langfristig nicht überzeugen kann. Insgesammt soll sich damit eine höhere Diversität der vom Generator generierten Samples ergeben, in denen sich die Verteilung der Input-Daten möglichst komplett widerspiegelt. Technisch wird eine Ersatz-Zielfunktion für das Generatortraining eingeführt, welche die Parameter des “K steps unrolled” Diskriminators entält. D.h. es wurden K Iterationsschritte einer Diskriminator-Optimierung bei festen Generatorparametern durchgeführt. Die aktuellen Generatorparameter und die Ergebnis-Diskriminatorparameter gehen dann in die Ersatz-Zielfunktion für das Generatortraining ein. Bei der Ableitung der Ersatz-Zielfunktion nach den Generatorparametern wird hier auch die innere Ableitung der “unrolled” (also für K Schritte optimierten) Diskriminatorparameter nach den aktuellen Generatorparametern berücksichtigt, d.h. es findet eine “Gradient-Backpropagation” durch einen Optimierungsprozess hindurch statt. Der entsprechende Term soll die Reaktion des Diskriminators auf Änderungen im Generator widerspiegeln und dazu beitragen, einen sogenannten “Mode Collapse” zu verhindern. Die Beispiele (Figure App.3 und App.4 im Anhang) deuten jedoch darauf hin, dass diese innere Ableitung nicht zwingend benötigt wird, um einen “Mode Collopse” zu verhindern, sondern dass das Weglassen der inneren Ableitung mit entsprechend mehr unrolling Steps ausgeglichen werden kann. Als Beispiele werden hier u. a. ein bekanntes “Mode-Collapse-Problem” (2D “Mixture of Gaussians”, d.h. die Zusammensetzung von 8 im Kreis angeordneten Gauß-Verteilungen), sowie MNIST und CIFAR10 behandelt. Zwischen gar keinem (0-step) Unrolling und 1-step Unrolling lassen sich in den generierten Bildern (Figure App.6-10 im Anhang) noch deutliche Verbesserungen erkennen, während alle weiteren Unrollings-Steps (5-step und 10-step Unrolling) augenscheinlich keine klar sichtbaren Verbesserungen mehr liefern.
TensorFlow-Implementierung auf GitHub: https://github.com/poolio/unrolled_gan
Fast Predictive Image Registration
(X. Yang, R. Kwitt and M. Niethammer; 8 Jul 2016)
siehe auch:
Invertible Conditional GANs for image editing
(G. Perarnau, J. van de Weijer, B. Raducanu and J. M. Álvarez; 19 Nov 2016)
Einbau eines Encoders in ein “conditional GAN” (cGAN) Framework, um das cGAN-Mapping zu invertieren, d.h. um echte Bilder in eine latente Repräsentation und einen “Bedingungs-Vektor” umzuwandeln. Diese Kombination eines Encoders mit einem cGAN wird hier “Invertible cGAN” (IcGAN) genannt und ermöglicht ein komplexes Editieren echter Bilder, also eine Rekonstruktion echter Bilder mit komplexen Modifikationen. Nachdem das cGAN trainiert wurde, wird ein Encoder bestehend aus zwei “Sub-Encodern” trainert: Einer der beiden Encoder encodiert ein Bild in eine latente Repräsentation und der andere Encoder encodiert ein Bild in einen Bedingungs-Vektor. Um den ersten Encoder zu trainieren, muss der Generator zunächst zu einem Satz von gesampelten latenten Variablen (z.B. aus der Gaußverteilung gezogen) die entsprechenden künstlichen Bilder generieren. Dann wird der Rekonstruktionsfehler zwischen den bekannten latenten Variablen und den aus den generierten Bildern encodierten latenten Variablen minimiert. Um den zweiten Encoder zu trainieren, wird der Rekonstruktionsfehler zwischen den bekannten Bedingungsvektoren und den aus den echten Bildern encodierten Bedingungsvektoren minimiert. Es werden verschiedene auch miteinander gekoppelte Architekturen für die beiden “Sub-Encoder” getestet, wobei sich zwei voneinander unabhängige, separat trainierte Encoder als am günstigsten in den hier durchgeführten Experimenten herausgestellt haben. Zudem werden verschiedene Positionierungen für den Bedingungsvektor im cGAN ausprobiert. Die besten Ergebnisse wurden erzielt, wenn der Bedingungsvektor in der ersten “convolutional” Schicht des Diskriminators und im Input des Generators eingefügt wird. Angewandt wird das hier vorgestellte IcGAN auf den “MNIST” Datensatz, der mit Labels für die entsprechende Zahlenklasse (0-9) versehen ist, und auf den “CelebA” Datensatz, dessen 40 binäre Attribute auf die 18 Attribute mit dem stärksten Einfluss auf die generierten Bilder reduziert wurden. Durch Änderung der Bedingungen (bei MNIST: des vorgegebenen Labels; bei CelebA: der binären Attribute) entstehen realistische Editierungsoperationen auf den Bildern.
Torch-Implementierung auf GitHub: https://github.com/Guim3/IcGAN
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks
(H. Zhang, T. Xu, H. Li, S. Zhang, X. Huang, X. Wang and D. Metaxas; 10 Dec 2016)
Das in diesem Paper beschriebene “stacked Generative Adversarial Network” (StackGAN) besteht aus zwei hintereinander geschalteten (“stacked”) Generator-Diskriminator-Netzen (GANs) und dient der Generierung von fotorealistischen Bildern aus Testbeschreibungen. Der Prozess der Bildgenerierung wird dabei in zwei einfachere Unterprozesse zerlegt: Das sogenannte “Stage-I GAN” erzeugt in Abhängigkeit von der Textbeschreibung zunächst ein niedrig aufgelöstes Bild mit der groben Objektform und den grundlegenden Objektfarben. Hintergrundbereiche werden aus einem zufälligen “Noise-Vektor”, der von einer A-Priori-Verteilung gezogen wurde, erzeugt. Das darauffolgende “Stage-II GAN” generiert nun basierend auf dem zuvor erzeugten niedrig aufgelösten Bild und der entsprechenden Textbeschreibung ein hoch aufgelöstes Bild. Da die groben Farben und Formen des Bildes in der zweiten Phase bereits generiert sind, kann sich das Stage-II GAN nun auf die Ojektdetails und das Erkennen und Ausbessern von Fehlern im Bild konzentrieren. Es wird eine sogenannte “Bedingungs-Vermehrungs-Technik” (“conditioning augmentation technique”) eingesetzt, um die konditionierenden Variablen (also hier die Textbeschreigungen bzw. deren Einbettungen) für den Generator zu vermehren: Die latenten Variablen werden zufällig von einer Gaußverteilung mit von der Texteinbettung abhängigem Mittelwert und entsprechender Kovarianz gezogen. Dadurch wird die Anzahl der (Text,Bild)-Trainingspaare erhöht und Robustheit gegenüber kleinen Störungen in der eingebetteten Textbeschreibung bewirkt. Um diese Robustheit noch weiter zu stärken und Overfitting zu vermeiden, wird zudem ein Regularisierungsterm in die zu minimierende Generator-Zielfunktion eingefügt, und zwar die Kullback-Leibler Divergenz zwischen zuvor genannter, von der Texteinbettung abhängiger Gaußverteilung und der Standard-Gaußverteilung. Das “Stage-II GAN” wird in Abhängigkeit von den zuvor erzeugten, niedrig aufgelösten Bildern und den Gauß’schen latenten Variablen (Texteinbettungen) trainiert. Hierbei wird, anders als bei herkömmlichen GANs, der zufällige “Noise-Vektor” nicht mehr benötigt, weil das zufällige Rauschen schon in den zuvor erzeugten niedrig aufgelösten Bildern steckt. Für das Diskriminator-Training zählen echte Bilder und deren zugehörige Textbeschreibung als positive Beispiele, während sowohl echte Bilder mit falscher Textbeschreibungen, als auch synthetische Bilder mit passender Textbeschreibung als Negativ-Beispiele zählen. Das Training läuft so ab, dass zunächst nur das “Stage-I GAN” für 600 Epochen trainiert wird und danach dann (bei festem Stage-I GAN) das “Stage-II GAN” für 600 Epochen trainiert wird. Für die Optimierung wird “ADAM” verwendet mit einer initialen Lernrate von 2e-4, welche alle 100 Epochen halbiert wird. Experimentiert wurde auf dem “Caltech-UCSD Bird (CUB)”-Datensatz und dem “Oxford-102 Flower”-Datensatz. Evaluiert wurden die aus Text erzeugten Vogel- und Blumen-Bilder zum Einen durch den sogenannten “Inception Score”, der realistisches Aussehen und Vielfalt der generierten Bilder bewertet, und zum Anderen durch Menschen, die zusätzlich den Zusammenhang der generierten Bilder mit ihrer Textbeschreibung beurteilt haben. Auf beiden Datensätzen hat das “StackGAN” verglichen mit anderen Verfahren die besten Scores erzielt. Zudem ist es laut den Autoren das bislang einzige Verfahren, dass realistisch aussehende, hoch aufgelöste Bilder der Größe 256x256 erzeugen kann, die allein von einer Textbeschreibung abhängen.
Python/Tensorflow-Implementierung auf GitHub: https://github.com/hanzhanggit/StackGAN
Kommentare auf reddit: https://www.reddit.com/r/MachineLearning/comments/5i23wt/r_stackgan_text_to_photorealistic_image_synthesis/
NIPS 2016 Tutorial: Generative Adversarial Networks
(I. Goodfellow; 31 Dec 2016)
Kommentare auf reddit: https://www.reddit.com/r/MachineLearning/comments/5lpgn8/r_nips_2016_tutorial_generative_adversarial/
Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization
(L. Li, K. Jamieson, G. DeSalvo, A. Rostamizadeh and A. Talwalkar; 21 Mar 2016)
See also: https://people.eecs.berkeley.edu/~kjamieson/hyperband.html
Python-Code auf GitHub: https://github.com/lishal/hyperband_benchmarks
DelugeNets: Deep Networks with Massive and Flexible Cross-layer Information Inflows
(J. Kuen, X. Kong and G. Wang; 17 Nov 2016)
In ResNets gibt es die sogenannten “Skip Connections”, d.h. direkte Verbindungen zwischen früheren und späteren Schichten, die sehr weit auseinander liegen können. Allerdings sind die “Cross-Layer-Verbindungen” zwischen früheren und späteren Schichten fest und nicht “selektiv”, so dass spätere Schichten keine Möglichkeit haben, die Ausgabekanäle bestimmter früherer Schichten zu priorisieren oder in ihrer Priorität herabzusetzen. Dicht-verbundene Netze (DenseNets) zielen darauf ab, diesen Nachteil von ResNets zu überwinden, indem in den convolutional Layern zusätzlich zu den räumlichen und Feature-Kanal Dimensionen eine extra Dimension berücksichtigt wird: die Schichttiefen-Dimension. Um die damit verbundene große Menge an Parametern zu handhaben, sind DenseNets so konfiguriert, dass sie verglichen mit üblichen CNNs eine wesentlich niedrigere Ausgabe-Breite (12-24 Ausgabe-Kanäle) in jedem Layer haben. Weil eine zu starke Verringerung der Ausgabe-Breite die Repräsentations-Leistung eines Netzes herabsetzen kann, wird hier eine neue Klasse von CNNs vorgestellt: “DelugeNets”. Diese ermöglichen selektive “Cross-Layer-Verbindungen” und haben gleichzeitig eine reguläre Ausgabe-Breite. Inspiriert sind DelugeNets durch “separierbare Convolutions”: Die Effizienz von Convolutions kann durch Trennung der beteiligten Dimensionen (Raumdimensionen, Featurekanaldimensionen, Schichttiefendimension) verbessert werden. DelugeNets sind so aufgebaut, dass die Schichttiefen-Dimension unabhängig von den anderen (räumlichen und Featurekanal-) Dimensionen behandelt wird. Die dabei eingesetzte neue Variante von convolutional Layer wird hier “cross-layer depthwise convolutional Layer” genannt und arbeitet ähnlich wie der “depthwise convolutional Layer” (siehe Xception: Deep Learning with Depthwise Separable Convolutions). “Depthwise convolutional Layers” behandeln verschiedene Input-Kanäle als getrennte Gruppen mit unterschiedliche Sets von convolutional Filtern. DelugeNets erweitern “depthwise convolutional Layer”, indem der gleiche Input-Kanal schichtübergreifend (also über viele vorhergehende Schichten hinweg) immer in die gleiche Gruppe einsortiert wird. Insgesamt werden in DelugeNets Schichten, die auf den gleichen FeatureMap-Dimensionen arbeiten zu einem Block zusammengefasst. Der Input einer bestimmten Schicht kommt dann von allen vorhergehenden Schichten des gleichen Blocks. Aus den anderen Blöcken kommen keine direkten Informationen in diese Schicht. Für den Übergang zum nächsten Block wird eine “strided spatial Convolution” verwendet um eine FeatureMap passender Dimension zu erzeugen…
Torch-Implementierung auf GitHub: https://github.com/xternalz/DelugeNets
GitXiv-Link: http://www.gitxiv.com/posts/2xngbbYekco87DySH/delugenets-deep-networks-with-massive-and-flexible-cross
Kommentare auf reddit: https://www.reddit.com/r/MachineLearning/comments/5l0k6w/r_delugenets_deep_networks_with_massive_and/
Image-to-Image Translation with Conditional Adversarial Networks
(P. Isola, J.-Y. Zhu, T. Zhou and A. A. Efros; 21 Nov 2016)
Idee: Entwicklung einer Allgemein-Lösung für die Transformation einer beliebigen Bildrepräsentation in eine beliebige andere Repräsentation (wie z.B. Darstellung als RGB-Bild, als Gradientenfeld, als Karte aller Kanten, etc.). Verwendet werden hierzu “Conditional Generative Adversarial Networks” (cGANs). Diese lernen nicht nur die Transformation des Eingangsbildes in das Ausgabebild, sondern erlernen gleichzeitig eine geeignete Zielfunktion zum Trainieren dieser Transformation. Die zu lernende Zielfunktion versucht, dass Ausgabebild als “real” oder “künstlich erzeugt” zu klassifizieren (Diskriminator), während gleichzeitig ein vom Eingangsbild abhängiges (also bedingtes), generatives Modell trainiert wird (Generator), das diese Zielfunktion minimiert, indem es Ausgaben generiert, die der Diskriminator nur schwer von realen Bildern unterscheiden kann. Durch das Erlernen einer auf die Daten angepassten Zielfunktion können cGANs auf eine Vielzahl verschiedener Tasks angewandt werden, die sehr unterschiedliche Arten von Zielfunktionen voraussetzen. “Conditional GANs” erlernen eine “strukturierte” Zielfunktion, für die die Ausgabepixel bedingt durch das Eingangsbild voneinander abhängen. Hier wird die übliche cGAN-Zielfunktion noch mit einer L1-Distanz-Funktion verknüft, die den Generator nicht nur dazu zwingt, den Diskriminator zu täuschen, sondern eine Ausgabe nahe der “Ground Truth” zu erzeugen. Der Generator besteht hier aus einer “U-Net”-basierten Architektur, d.h. einem Encoder-Decoder-Netz mit “Bottleneck”-Schicht in der Mitte und Skip-Verbindungen zwischen an der Mitte gespiegelten Schichten, was den Austausch von low-level Informationen zwischen Input und Output ermöglicht. Der Diskriminator ist ein convolutional “PatchGAN”-Klassifikator, welcher die Struktur der Ausgabepixel nur innerhalb von Bildausschnitten (Patches) auswertet und ggf. bestraft. Der PatchGAN-Diskriminator klassifiziert also nur kleine Bereiche des Bildes als echt oder künstlich und läuft in einer “convolutional” Art und Weise über das Bild. Für die Erzeugung einer Endauswertung des Diskriminators bezüglich des Gesamtbildes, werden schließlich alle Einzelergebnisse gemittelt. Die Anwendbarkeit von cGANs auf eine Vielzahl verschiedener Aufgabenstellungen und Daten wird hier durch die Bearbeitung 7 verschiedener Transformations-Tasks gezeigt: 1.) Semantische Label <-> Foto (Stadtbilder), 2.) architektonische Label -> Foto (Fassadenbilder), 3.) Karte <-> Luftaufnahme (GoogleMaps-Bilder), 4.) Schwarz-Weiß-Foto -> Farbfoto (ImageNet-Bilder), 5.) Kanten -> Foto (Schuh-Bilder), 6.) Skizze -> Foto (Handtaschen-Bilder), 7.) Tagaufnahme -> Nachaufnahme (Außen-Aufnahmen). Ein Nachteil des vom Eingangsbild abhängigen Generators scheint hier ein eingeschränktes Maß an Generierungsvielfalt zu sein (siehe Zitat am Ende des Abschnitts 2.1, S.3): “Despite the dropout noise, we observe very minor stochasticity in the output of our nets. Designing conditional GANs that produce stochastic output, and thereby capture the full entropy of the conditional distributions they model, is an important question left open by the present work.”
Torch-Implementierung auf GitHub: https://github.com/phillipi/pix2pix
GitXiv-Link: http://www.gitxiv.com/posts/jTvyBAZXrz3uEDX4F/image-to-image-translation-with-conditional-adversarial-nets
R-FCN: Object Detection via Region-based Fully Convolutional Networks
(J. Dai, Y. Li, K. He and J. Sun; 20 May 2016)
Idee: “Fully convolutional” Netz mit positions-sensitiven “Score Maps” und dadurch Beschleunigung des Faster R-CNN-Ansatzes mit seinen deutlich teureren “Pro-Region-Subnetzwerken”. Die convolutional Layer führen zu einer Translationsinvarianz, die für die Objekt-Klassifikation zwar hilfreich ist, für die Objekt-Lokalisation jedoch eher hinderlich, da es hierbei auf die genaue Position des Objekts im Bild ankommt. Ohne die nach dem ROI-Pooling-Layer folgenden mehreren “fully connected” (fc) Layer, bedarf es anderer Mittel wie die hier eingeführten “Score Maps” um genauere Positionsinformationen der Objekte zu gewinnen. Für die Objekt-Klassifikation produziert der letzte convolutional Layer aus z.B. “ResNet-101” für eine ROI (z.B. gewonnen aus dem Region Proposal Net (RPN)) k^2 Score Maps für jede Objekt-Kategorie samt Hintergrund (-> k^2 x (C+1) Score Maps). Die k^2 Score Maps entsprechen einem kxk-Gitter, das relative Positionen in der ROI wie “oben links, oben mittig, …, unten rechts” beschreibt. Eine positions-sensitive ROI-Pooling-Schicht führt diese Informationen aus den “Score Maps” zusammen und generiert (Objekt-Kategorie-)Scores für jede ROI, die dann in eine Softmax-Funktion eingehen, um damit dann den “Cross-entropy”-Klassifikationsteil der Zielfunktion zu berechnen. Die BoundingBox(BBox)-Regression wird ähnlich wie die Objekt-Klassifikation durchgeführt. Dazu wird neben dem k^2x(C+1)-d Conv-Layer für die Klassifikation ein 4k^2-d Conv-Layer für die Regression verwendet (4k^2C-d Conv-Layer bei Klassen-abhängiger BBox-Regression). Dieser 4k^2-d ConvLayer produziert für eine ROI k^2 Score Maps für jede der 4 BBox-Parameter. Die positions-sensitive ROI-Pooling-Schicht wird auf diese 4k^2 Score Maps angewandt und produziert für jede ROI einen 4k^2-d Vektor, der dann durch “Average Voting” zu einem 4-d Vektor zusammengeführt wird. Dieser 4-d Vektor, der die BBox-Position beschreib, geht dann in den “Smooth-L1”-Regressionsteil der Zielfunktion ein. Insgesamt stellt sich der R-FCN-Ansatz bei gleicher Genauigkeit wie Faster R-CNN als 2.5-20 x schneller heraus (getestet auf den PASCAL VOC- und MS COCO-Datensätzen).
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
(A. Radford, L. Metz and S. Chintala; 19 Nov 2015)
Introduction of Deep Convolutional Generative Adversarial Networks (DCGANs) - a class of CNNs for unsupervised learning. DCGANs are trained on various image datasets and learn a hierarchy of representations from object parts to scenes in both the generator and discriminator. Moreover, the learned features are used for novel tasks as image classification, which demonstrates their applicability as general image representations.
Adversarially Learned Inference
(V. Dumoulin, I. Belghazi, B. Poole, A. Lamb, M. Arjovsky, O. Mastropietro and A. Courville; 2 Jun 2016)
(see also: this blog post and this code on GitHub, as well as the next paper: “Adversarial Feature Learning”)
-> see also the following paper:
Adversarial Feature Learning
(J. Donahue, P. Krähenbühl and T. Darrell; 31 May 2016)
Note: Both papers (“Adversarially Learned Inference” ALI and “Adversarial Feature Learning” AFL) publish the same idea of extending the generative adversarial network (GAN) approach of I. Goodfellow et al. by an encoder network that learns rich feature representations. GANs generate realistic-looking synthetic data samples by pitting two neural networks against each other: 1.) A generator network that tries to mimic examples from a training set, that are preferably not distinguishable from the real data and 2.) a discriminator network, that is trained to classify data samples correctly as real data samples and synthetic samples. Thus, on one hand, the discriminator is trained to maximize the probability of correctly classifying real data samples and synthetic samples and on the other hand, the generator is trained to produce samples that fool the discriminator, i.e. that are unlikely to be synthetic according to the discriminator. Now, the idea is to augment this GAN framework by an encoder network which (in contrast to the generator that generates data samples from features) learns rich feature representations from data samples. In the AFL paper this new feature learning framework is called Bidirectional GAN (BiGAN). An alternative approach to BiGAN might be taking the learned intermediate representations from the discriminator as feature representations for related tasks (see also DCGAN paper). However, due to the authors of the AFL paper it is not clear that the task of distinguishing between real and generated data entails intermediate representations that are useful as semantic feature representations. In the ALF paper the feature learning capabilities of the BiGAN framework are evaluated by first training it unsupervised and then using the encoder’s learned feature representations within supervised learning tasks, such as ImageNet classification and Pascal VOC classification, detection and segmentation. For the ImageNet task each of the three modules (generator, discriminator and encoder) are convnets, where the encoder architecture follows AlexNet. As a result the convolutional filters learned by the encoder have clear Gabor-like structure, similar to those originally reported for the fully supervised AlexNet model. Imagenet classification is evaluated by freezing the first 2-5 layers of the pretrained encoder and randomly reinitializing and training the remainder fully supervised for ImageNet classification. For the Pascal VOC classification, detection and segmentation tasks, the pretrained encoder model is used as the initialization for 1-3 fully connected (FC) layers training, Fast R-CNN (FRCN) training, and Fully Convolutional Network (FCN) training, respectively, replacing the AlexNet model trained fully supervised for ImageNet classification. BiGANs are shown to be competitive with contemporary unsupervised feature learning approaches, like autoencoders. However, their features seem not to be competitive with the features learned from the AlexNet model pretrained fully supervised for ImageNet classification. Finally, the authors emphasize that all presented results constitute only a preliminary exploration of the space of model architectures possible under the BiGAN framework and that they expect results to improve significantly with advancements in generator and discriminator model architectures.
Systematic evaluation of CNN advances on the ImageNet
(D. Mishkin, N. Sergievskiy and J. Matas; 7 Jun 2016)
Systematic study of recent advances in CNN architectures, image pre-processing and learning rate schedules on the ImageNet classification task. Studies were performed with AlexNet, VGGNet and GoogleNet. In order to accelerate tests, images sizes where smaller (144xN with N ≥ 128) than the commonly used size of 224x224. In all experiments, SGD with momentum 0.9 is used for learning and initial learning rate is set to 0.01. The L2 weight decay for convolutional weights is set to 5e-4 and is not applied to bias. Dropout with probability 0.5 is used before the two last layers. Networks were initialized with layer-sequential unit-variance (LSUV), while biases are initialized to zero. Image pixel intensities were scaled by 0.04, after subtracting the mean of BGR pixel values (104 117 124). In the end (conclusions section of the paper) a summary of recommendations is given including non-linearity, colorspace transformation, learning rate decay policy, pooling variant, batch size, design of last network layers, etc. Also a link to their GitHub code is give in the paper. In more detail, they suggest to use ELU nonlinearity after convolutional layers without batch normalization (or ReLU with BN). Next, they recommend to use a combination of max and average pooling, where max pooling should be 2x2/2 or overlapping, i.e. 3x3/2 if zero-padding is done. With the choosen settings a linear learning rate decay seems to be best, while it would be of great interest to test other, more promising optimization methods than SGD. Moreover, they recommend to learn a colorspace transformation of RGB via a mini-network of 1x1 convolutions placed between the RGB image and the conv1 layer. The best architecture for such a mini-network has been conv1x1x10->conv1x1x3 with VLReLU. Additionally the last fully connected layers should be treated as convolution and predictions should be averaged over all spatial positions via average pooling (…->Pool5->C3->C1->CLF->AvePool->Softmax).
Cross Modal Distillation for Supervision Transfer
(S. Gupta, J. Hoffman and J. Malik; 2 Jul 2015)
Learning Rich Features from RGB-D Images for Object Detection and Segmentation
(S. Gupta, R. Girshick, P. Arbelaez and J. Malik; 22 Jul 2014)
(see also: this code on GitHub)
Aligning 3D Models to RGB-D Images of Cluttered Scenes
(Inferring 3D Object Pose in RGB-D Images)
(S. Gupta, P. Arbeláez, R. Girshick and J. Malik; 16 Feb 2015)
Exploring Person Context and Local Scene Context for Object Detection
(S. Gupta, B. Hariharan and J. Malik; 25 Nov 2015)
Particular object retrieval with integral max-pooling of CNN activations
(G. Tolias, R. Sicre and H. Jégou; 18 Nov 2015)
Stacked What-Where Auto-encoders
(J. Zhao, M. Mathieu, R. Goroshin and Y. LeCun; 8 Jun 2015)
Train faster, generalize better: Stability of stochastic gradient descent
(M. Hardt, B. Recht and Y. Singer; 3 Sep 2015)
A MultiPath Network for Object Detection
(S. Zagoruyko, A. Lerer, T.-Y. Lin, P. O. Pinheiro, S. Gross, S. Chintala and P. Dollár; 7 Apr 2016)
Semantic Object Parsing with Graph LSTM
(X. Liang, X. Shen, J. Feng, L. Lin and S. Yan; 23 Mar 2016)
Learning a Predictable and Generative Vector Representation for Objects
(R. Girdhar, D. F. Fouhey, M. Rodriguez and A. Gupta; 29 Mar 2016)
VQA: Visual Question Answering
(S. Antol, A. Agrawal, J. Lu, M. Mitchell, D. Batra, C. L. Zitnick and D. Parikh; 3 May 2015)
The task of free-form and open-ended visual question answering (VQA) is introduced. Moreover, a corresponding challenge is organized, a suitable dataset is provided and a first solution to this task is presented. Visual question answering means: Given an image and a natural language question about the image, the task is to provide an accurate natural language answer. Here, both and open-ended answering task and a multiple-choice task are considered. Visual questions selectively target different areas of an image, including background details and underlying context. As a result, a system that succeeds at VQA typically needs a more detailed understanding of the image and complex reasoning than a system producing generic image captions. It requires a potentially vast set of AI capabilities, as e.g. fine-grained recognition, object detection, activity recognition, knowledge base reasoning and commonsense reasoning. VQA is natrually grounded in images requiring the understanding of both text and vision. A rich variety of visual concepts emerge from visual questions and their answers. Several slightly different models for solving the VQA task are presented. The best performing model combines the output of an LSTM with the normalized activations from the last hidden layer of a deep CNN. More precisely, a two hidden layer LSTM is used to encode the text questions and the last hidden layer of a VGGNet (VGG19) is used to encode the images. The image features are moreover l2-normalized. The question and image features are transformed to a common space (each via fully-connected layer + tanh non-linearity) and fused via element-wise multiplication. The result is passed through a fully connected neural network classifier with 2 hidden layers and 1000 hidden units (dropout 0.5) in each layer with tanh non-linearity, followed by a softmax layer to obtain a distribution over answers. The entire model is learned end-to-end with a cross-entropy loss. VGGNet parameters are frozen to those learned for ImageNet classification and not fine-tuned in the image channel.
Scene Labeling with LSTM Recurrent Neural Networks
(W. Byeon, T. M. Breuel, F. Raue and M. Liwicki; June 2015)
Recurrent Convolutional Neural Network for Object Recognition
(M. Liang and X. Hu; 2015)
Recurrent Convolutional Neural Networks for Scene Labeling
(P. O. Pinheiro and R. Collobert; 2014)
Sparse 3D convolutional neural networks
(B. Graham; 12 May 2015)
Spatially-sparse convolutional neural networks
(B. Graham; 22 Sep 2014)
Convolutional neural network (CNN) for processing spatially-sparse inputs. Taking advantage of the sparsity allows to train and test deep CNNs more efficiently. Slow max-pooling, i.e. using many layers of 2x2 pooling rather than a smaller number of 3x3 or 4x4 layers, retains more spatial information and is of particular importance for e.g. handwriting recognition. In general, slow pooling is computationally expensive, since the spatial size of the hidden layers reduces more slowly. For sparse input however, this is compensated by the fact that with slow pooling the sparsity is preserved in the early hidden layers. Each hidden variable can be thought of as having a “ground state” corresponding to receiving no meaningful input. In general this ground state is non-zero because of bias terms. When the input array is sparse, only the values of the hidden variables where they differ from their “ground state” have to be calculated. Essentially the convolutional and pooling operations shall be memoized, i.e. they shall be speed up by storing the results of these operations and returning the cached result when the same inputs occur again. Here, for each operation there is only one input (the input corresponding to regions in the ground state) that is expected to be seen repeatedly. Hence, to forward propagate the network, two matrices for each layer of the network are calculated: A “feature matrix” which is a list of row vectors, one for the ground state, and one for each active spatial location in the layer, and a “pointer matrix” which for each spatial location in the convolutional layer stores the number of the corresponding row in the feature matrix. Similar data structures can be used in reverse order for backpropagation. Moreover, a combined representation of two rather different techniques for character recognition is used, here: 1.) Render the pen-strokes at a relatively high resolution (e.g. 40x40) and then use a CNN as classifier, 2.) Draw the character in a low resolution grid (e.g. 8x8) and in each square of the grid calculate an 8-d histogram measuring the amount of movement in each of the 8 compass directions. The combined technique preserves sparsity as the histogram is all zero at sites the pen does not touch. Increasing the number of input features per spatial location only increases the cost of evaluating the first hidden layer, so for sparse input it tends to have a negligible impact on performace. The classification of the CIFAR-10 and CIFAR-100 datasets with a spatially-sparse CNN including network in network (NiN) layers DeepCNiN(5,300) with dropout for the conv3x3-layers and data augmentation via affine transformations produced a test error of 6.28% on CIFAR-10 and 24.30% on CIFAR-100. [DeepCNiN(5,300) means input-conv3x3,300-MP2-conv1x1,300-conv3x3,600-MP2-conv1x1,600-conv3x3,900-MP2-conv1x1,900-conv3x3,1200-MP2-conv1x1,1200-conv3x3,1500-MP2-conv1x1,1500-conv3x3,1800-conv1x1,1800-output with a form of leaky ReLU activation \(f(x) = x \ \text{for} \ x \geq 0 \ \text{and} \ x/3 \ \text{otherwise}\) and softmax output.]
Deep Exemplar 2D-3D Detection by Adapting from Real to Rendered Views
(F. Massa, B. Russell and M. Aubry; 8 Dec 2015)
An end-to-end convolutional neural network (CNN) is applied to 2D-3D exemplar detection with adaption of natural image features to better align with those of CAD rendered views, which leads to an increase of accuracy and speed. “2D-3D exemplar detection” means that CNN features of a 2D image window containing an object proposal (e.g. obtained via selective search) are compared with the CNN features of rendered views of a library of 3D object CAD models. Then the 3D CAD model view that best matches the style and pose of the input image window is returned. Thus, as result not only the bounding box location of an object in the image is detected, but also its style and 3D pose is estimated. Since there is a domain gap between the appearance of natural images and rendered views of CAD models, an important extension to this method here is the learning of an adaption of natural image features to better align with those of the CAD rendered views before the feature comparison step. To perform this adaption learning, a large training set of aligned natural image and rendered view pairs depicting a similar object ist needed. Since existing datasets are either relatively small or have aligned models that only coarsely approximate object styles, here rendered views of textured object models are composited with natural images, which allows to create a large training set of rendered views of CAD models and composite views with natural background pairs. The adaption learning is incorporated as a module in a CNN-based object detection pipeline: CNN features for a 2D object proposal corresponding to a selective search window are learned, along with CNN features for rendered views of CAD models. Then an adaption of the natural image features to the rendered view features is learned and finally the adpated features are compared with calibrated rendered view features to obtain matching scores for each rendered view. For the adaption learning the following loss is minimized over the transformation function \(\phi \), that transforms real image features \(x_i\) into CAD rendered view features \(y_i\): \(L(\phi) = - \sum_{i=1,\dots,N} S(\phi(x_i),y_i) + R(\phi)\), where S is the “squared-cosine similarity” between features, R is a regularization function and the feature transformation \(\phi\) is a slight modification of an affine transformation: \(\phi(x) = ReLU(Ax + b)\), where “ReLU” is the element-wise maximum over zero. Here the adaptation \(\phi\) is implemented in the CNN as a fully-connected layer, followed by a ReLU nonlinearity.
Convolutional Neural Networks for joint object detection and pose estimation: A comparative study
(F. Massa, M. Aubry and R. Marlet; 22 Dec 2014)
Study of CNNs for jointly detecting objects and estimating their 3D pose. In particular, design and evaluation of different feature representations of oriented objects, and different loss functions that lead a network to learn this representations. One difficulty is that the task requires features with two conflicting properties: The pose of an object has a continuous structure while its category is a discrete variable. Moreover, the amount of training data for the task is very limited. Different approaches on the joint object detection and pose estimation task of the Pascal3D+ benchmark are evaluated using the “Average Viewpoint Precision” (AVP) metric for assessing joint detection and viewpoint estimation. A Spatial Pyramid Pooling (SPP) framework (as proposed by He et al.), which applies selective search after the convolutional layers, is used. The CNN is pre-trained on ImageNet (in order to deal with the lack of training data) and only the last layers are adapted and fine-tuned to predict different features identifying the presence of an object and its orientation. Only the azimuth (yaw) angle is considered here, because the pitch and roll angles vary only slightly for the Pascal VOC images. Mainly three different approaches of feature representations with corresponding error functions are analyzed: 1.) A “discrete method”, where the subspace of object orientations is a set of discrete points (like the object classes), 2.) A “continuous regression method”, where for each class the subspace of object orientations is a circle and background patches are forced to have features far from this circle. Hence, small distances from the features to the circle can be associated to the class (implicit treatment of the classification problem) and the angle predicts the orientation. 3.) An “intermediate method”, where in opposition to the other methods, the last network layer is divided in two parts: one part for the classsification and one part for the orientation prediction. The classification layer is followed by a softmax, while the orientation prediction layer is not. The output of the orientation prediction layer can be: a) a point on a circle in 2D (single circle for all classes), or b) a point on a circle in a higher dimensional space (a circle per class), or c) a point on a hyper-cylinder in a higher dimensional space (a hyper-cylinder per class). The “discrete method” provides the best results for orientation prediction and clearly outperforms previous state-of-the-art results, but needs more data to avoid a decrease of detection performance, since it treats each orientation as a separate class. The “intermediate method” (joint classification and continuous orientation estimation) shows that seperating the different orientations improves detection performances (i.e. helps the network to find better representations of the object classes). Unfortunately, with this method the orientation predictions were not as good as those obtained by learning the orientation independently from the classification, which might be caused by a too small weight of the pose loss in the error function, which for the “intermediate method” is composed of a classification term and a pose prediction term.
A New Method to Visualize Deep Neural Networks
(L. M. Zintgraf, T. S. Cohen and M. Welling; 8 Mar 2016)
3D ShapeNets: A Deep Representation for Volumetric Shape Modeling
(Z. Wu, S. Song, A. Khosla, F. Yu, L. Zhang, X. Tang and J. Xiao; 22 Jun 2014)
Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection
(S. Levine, P. Pastor, A. Krizhevsky and D. Quillen; 7 Mar 2016)
New learning-based approach to hand-eye coordination for robotic grasping from monocular images. The method consists of two parts: 1.) A grasp success prediction network \(g(I_t, v_t)\), i.e. a deep convolutional neural network (CNN), which as input gets an image \(I_t\) and a task-space motion command \(v_t\) and as ouput returns the probability of motion command \(v_t\) resulting in a successful grasp, and 2.) a servoing function \(f(I_t)\), which uses the prediction network to continuously update the robot’s motor commands to servo the gripper to a success grasp. By continuously choosing the best predicted path to a successful grasp, the servoing mechanism provides the robot with fast feedback to perturbations and object motion, as well as robustness to inaccurate actuation. Currently, only vertical pinch grasps are considered , though extensions to other grasp parameterizations would be straightforward. Importantly, the model does not require the camera to be precisely calibrated with respect to the end-effector, but instead continuously uses visual feedback to determine the spatial relationship between the gripper and graspable objects in the scene. The grasp prediction CNN was trained with a large dataset of over 800000 grasp attempts collected over the course of two months, using between 6 and 14 robotic manipulators at any given time, with slight differences in camera placement and slight differences in wear and tear on each robot resulting in differences in the shape of the gripper fingers. Each grasp \(i\) consists of \(T\) time steps. At each time step \(t\), the robot records the current image \(I_t^i\) and the current pose \(p_t^i\), and then chooses a direction along which to move the gripper. At the final time step \(T\), the robot closes the gripper and evaluates the success of the grasp, producing a label \(l_i\). The final dataset contains samples \((I_t^i, p_T^i − p_t^i, l_i)\) that consist of the image, a vector from the current pose to the final pose, and the grasp success label. The CNN moreover is trained with a cross-entropy loss to match \(l_i\), causing the network to output the probability \(p(l_i = 1)\). The servoing mechanism uses the grasp prediction network to choose the motor commands for the robot that will maximize the probability of a success grasp. Thereto a “small” optimization on \(v_t\) is performed using three iterations of the cross-entropy method (CEM), a simple derivative-free optimization algorithm. Moreover, the following two heuristics for gripper and robot motion are taken as basis: 1.) The gripper is closed whenever the network predicts that no motion will succeed with a probability that is at least 90% of the best inferred motion. 2.) The gripper is raised off the table whenever the network predicts that no motion has a probability of success that is less than 50% of the best inferred motion. During data collection, grasp success was evaluated using two methods: 1.) The position reading on the gripper is greater than 1cm, indicating that the fingers have not closed fully (only suitable for thick objects). 2.) The images of the bin containing the objects recorded before and after a drop differ, indicating that there has somenthing been in the gripper (“drop test”). Finally, the presented method has been tested to be more robust to perturbations as movement of objects in the scene and variability in actuation and gripper shape than an “open-loop approach” (without continuous feedback). Moverover, grasps automatically were adapted to the different material properties of the objects and even challenging (e.g. flat) objects could be grasped.
(Review)
Learning Deconvolution Network for Semantic Segmentation
(H. Noh, S. Hong and B. Han; 17 May 2015)
Learning to Segment Object Candidates
(P. O. Pinheiro, R. Collobert and P. Dollar; 20 Jun 2015)
ConvNet approach for generating object proposals for the object detection task. Main difference to “Faster R-CNN”: The method presented here (called “DeepMask”) generates segmentation proposals instead of less informative bounding box proposals. The core of this approach is a ConvNet which jointly predicts a segmentation mask given an input patch and assigns an object score corresponding to how likely the patch is to contain an object. A large part of the network is shared between those two tasks: only the last few network layers are specialized for separately outputting a mask and score prediction. The model is trained by optimizing a cost function that targets both tasks simultaneously. In detail, a VGG-A ConvNet architecture (initialized with pre-trained ImageNet classification parameters and consisting of 3x3 convolutions, ReLUs and 2x2 max pooling layers) is used, where the final fully connected layers and the last max-pooling layer are removed, because the spatial information provided in the convolutional feature maps is needed for inferring segmentation masks. The branch of the network dedicated to segmentation is composed of a single 1x1 convolution with ReLU and a classification layer, consisting of several pixel classifiers. The classification layer moreover is decomposed into two linear layers with no non-linearity in between (a low-rank variant of using fully connected linear classifiers, reducing the number of network parameters while allowing each pixel classifier to use information from the entire feature map). The branch of the network dedicated to scoring is composed of a 2x2 max-pooling and two fully connected layers with ReLUs and dropout. The loss function is a sum of binary logistic regression losses, one for each location of the segmenation network and one for the object score. An alternation between backpropagation through the segmenation and scoring branch is performed. Generalization capabilities of the model are demonstrated by testing it on object categories not seen during training. For this, segmentation training with only positive scored objects is critical, since this way the network attempts to generate a segmentation mask at every patch, even if no known object is present. During full image inference the model is densely applied at multiple locations and scales. Since all computations can be computed convolutionally, the full image inference procedure is still efficient. For the implementation of all experiments Torch7 has been used.
Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks
(E. Denton, S. Chintala, A. Szlam and R. Fergus; 18 Jun 2015)
Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks
(S. Bell, C. L. Zitnick, K. Bala and R. Girshick; 14 Dec 2015)
Identity Mappings in Deep Residual Networks
(K. He, X. Zhang, S. Ren and J. Sun; 16 Mar 2016)
Proposal of a rearranged residual building block with “pre-activation”. More precisely, placing the rectified linear unit (ReLU) and batch normalization (BN) before the weight layers instead of after, is shown to further improve the results of the deep residual network.
Deep Residual Learning for Image Recognition
(K. He, X. Zhang, S. Ren and J. Sun; 10 Dec 2015)
Winner of the ILSVRC 2015 object detection and image classification and localization tasks. Neural networks with depth of over 150 layers are used together with a “deep residual learning” framework that eases the optimization and convergence of extremely deep networks. The localization and detection systems are in addition based on the “Faster R-CNN” system of S. Ren at al.
Interesting links on residual nets:
- Slides of their talk at the ICCV 2015
- Original implementation on GitHub
- Torch implementation on GitHub
- Torch blog post about residual nets
- GitXiv entry
- Short description on Quora
On Learning to Think: Algorithmic Information Theory for Novel Combinations of Reinforcement Learning Controllers and Recurrent Neural World Models
(J. Schmidhuber; 30 Nov 2015)
Deep multi-scale video prediction beyond mean square error
(M. Mathieu, C. Couprie and Y. LeCun; 17 Nov 2015)
Rethinking the Inception Architecture for Computer Vision
(C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens and Z. Wojna; 2 Dec 2015)
Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)
(D.-A. Clevert, T. Unterthiner and S. Hochreiter; 23 Nov 2015)
Gradient-based Hyperparameter Optimization through Reversible Learning
(D. Maclaurin, D. Duvenaud and R. P. Adams; 11 Feb 2015)
Interessante Rezension zu dem Paper
Speed learning on the fly
(P.-Y. Massé and Y. Ollivier; 8 Nov 2015)
Interessante Rezension zu dem Paper
ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks
(F. Visin, K. Kastner, K. Cho, M. Matteucci, A. Courville and Y. Bengio; 3 May 2015)
Learning both Weights and Connections for Efficient Neural Networks
(S. Han, J. Pool, J. Tran and W. J. Dally; 8 Jun 2015)
Real-Time Full-Body Human Attribute Classification in RGB-D Using a Tessellation Boosting Approach
(T. Linder and K. O. Arras; Sept 2015)
SimTrack: A Simulation-based Framework for Scalable Real-time Object Pose Detection and Tracking
(K. Pauwels and D. Kragic; Sept 2015)
FaceNet: A Unified Embedding for Face Recognition and Clustering
(F. Schroff, D. Kalenichenko and J. Philbin; 2015)
(Github-Code: https://github.com/cmusatyalab/openface)
“Memory foam” approach to unsupervised learning
(N. B. Janson and C. J. Marsden; 4 Jul 2011)
Grid Long Short-Term Memory
(N. Kalchbrenner, I. Danihelka and A. Graves; 6 Jul 2015)
DeepCamera: A Unified Framework for Recognizing Places-of-Interest based on Deep ConvNets
(P. Peng, H. Chen, L. Shou, K. Chen, G. Chen and C. Xu; 2015)
Look and Think Twice: Capturing Top-Down Visual Attention with Feedback Convolutional Neural Network
(C. Cao, X. Liu, Y. Yang, Y. Yu, J. Wang, Z. Wang, Y. Huang, L. Wang, C. Huang, W. Xu, D. Ramanan and T. S. Huang; 2015)
Einführung von “Feedback-Loops” in vorwärtsgerichteten ConvNets, die den Aktivierungsstatus der inneren Neuronen gemäß den Ergebnissen der oberen Schicht (z.B. der Ausgabe der Klassen-Neuronen) optimieren. D.h. wenn ein semantischer Stimulus der oberen Schicht wie z.B. “Panda” gegeben ist, werden durch eine iterative Optimierung in den Feedback-Loops nur solche Neuronen der inneren Schichten aktiviert, welche mit dem Konzept “Panda” verbunden sind, so dass auch nur solche Regionen in der Visualisierung erfasst werden, die für das Konzept “Panda” typisch (“salient”) sind. Genauer wird das Verhalten der ReLU- und Max-Pooling-Schichten (beide enthalten die “Max-Funktion”) als eine Menge von binären Aktivierungsvariablen \(z \in\) {0, 1} sogenannten “Gates”, die durch die Eingabe gesteuert werden, neu interpretiert. Dadurch können nach dem Sammeln von Informationen in der vorwärtsgerichteten Phase, Singale mit nur geringem Beitrag zur Entscheidungsfindung bzw. mit irrelevanter Information für ein bestimmtes Label in der rückwärtsgerichteten Phase eliminiert werden. Der Feedback-Mechanismus wird als Optimierungsproblem formuliert, der die Zahl der aktiven Neuronen minimiert und dabei den “Score” der Zielklasse maximiert, indem die binären Neuronen-Aktivierungen \(z\) jedes inneren Neurons entsprechend angepasst werden. Um dieses Optimierungsproblem in polynomialer Zeit lösen zu können, werden die ganzzahligen Nebenbedingungen \(z \in\) {0, 1} durch die relaxierten Nebenbedingungen \(0 \leq z \leq 1\) ersetzt (LP-Relaxation). Durch die Feedback-Loops wird der menschliche Prozess der visuellen Aufmerksamkeit, nämlich das Fokussieren einzelner Objekte nach einem ersten flüchtigen Blick auf das Gesamtbild, nachgeahmt. Der erste flüchtige Blick wird hier durch eine “weakly-supervised” Objekt-Lokalisierung nachgebildet, um eine erste grobe Schätzung der Objektregionen zu erhalten. Diese “weakly-supervised” Objekt-Lokalisierung wird mittels “Salience Maps” realisiert: Bei gegebenem Eingangsbild und entsprechender “Salience Map” für eine bestimmte Klasse, wird eine Objekt-Segmentierungsmaske durch eine einfache Schwellwertbildung bestimmt. Dann wird die enganliegenste Bounding Box um diese Segmentierungsmaske ermittelt. Das Fokussieren wird schließlich realisiert, indem das Netzwerk auf diese Bounding Box-Regionen fokussiert wird, um die finale Klassifizierung durchzuführen. Dieses Fokussieren verbessert die Klassifizierungsgenauigkeit besonders für sehr kleine Objekte.
DeepBox: Learning Objectness with Convolutional Networks
(W. Kuo, B. Hariharan and J. Malik; 8 May 2015)
Learning Visual Feature Spaces for Robotic Manipulation with Deep Spatial Autoencoders
(C. Finn, X. Y. Tan, Y. Duan, T. Darrell, S. Levine and Pieter Abbeel; 21 Sep 2015)
RGB-D Object Recognition and Pose Estimation based on Pre-trained Convolutional Neural Network Features
(M. Schwarz, H. Schulz and S. Behnke; May 2015)
Learning Compound Multi-Step Controllers under Unknown Dynamics
(W. Han, S. Levine and P. Abbeel; 2015)
Vorgestellt wird ein Reinforcement Learning-Verfahren zum Trainieren einer Verkettung von mehreren Steuerungseinheiten zur Steuerung eines Roboters. Zwei wichtige Voraussetzungen hierfür sind die Berücksichtigung der Zustandsverteilungen, die durch vorhergehende Steuerungseinheiten in der Kette verursacht wurden, und das automatische Trainieren von Reset-Steuerungseinheiten, die das System für jede Episode in seinen Anfangszustand zurücksetzen. Der Anfangszustand jeder Steuerungseinheit wird durch die ihr vorausgehende Steuerungseinheit bestimmt, wodurch sich ein nicht-stationäres Lernproblem ergibt. Es wird gezeigt, dass ein von den Autoren kürzlich entwickeltes Reinforcement Learning-Verfahren, das linear-Gauß’sche Steuerungen mit gelernten, lokalen, linearen Modellen trainiert, derartige Probleme mit nicht-stationären initialen Zustandsverteilungen lösen kann, und dass das gleichzeitige Trainieren von vorwärts gerichteten Steuerungseinheiten zusammen mit entsprechenden Reset-Steuerungseinheiten die Trainingszeit nur minimal erhöht. Außerdem wird das hier vorgestellte Verfahren anhand einer komplexen “Werkzeug-Verwendungs-Aufgabe” demonstriert. Die Aufgabe besteht aus sieben verschiedenen Stufen (“Episoden”) und setzt die Verwendung eines Spielzeug-Schraubenschlüssels voraus, um eine Schraube einzudrehen. Abschließend wird gezeigt, dass das hier vorgestellte Verfahren mit “guided Policy Search” kombiniert werden kann, um nichtlineare neuronale Netzwerk-Steuerungseinheiten für eine “Greif-Aufgabe” mit beachtlicher Variation in der Zielposition zu trainieren.
(Review)
Learning Descriptors for Object Recognition and 3D Pose Estimation
(P. Wohlhart and V. Lepetit; 20 Feb 2015)
Verwendung von ConvNets um Descriptoren von Objektansichten zu erhalten, die sowohl die Identität als auch die 3D-Pose des Objekts effizient erfassen. Anstelle von vollständigen Testbildern (vgl. nachfolgendes Paper von T. Hodan) werden hier nur Regionen, die das zu identifizierende Objekt enthalten, als Input für das ConvNet verwendet. Das ConvNet wird trainiert, indem einfache Ähnlichkeits- und Unähnlichkeits-Bedingungen zwischen den Descriptoren erzwungen werden. Genauer soll die Euklidische Distanz zwischen Descriptoren verschiedener Objekte groß sein, während die Euklidische Distanz zwischen Descriptoren gleicher Objekte die Ähnlichkeit ihrer Posen widerspiegeln soll. Weil hier die Ähnlichkeit zwischen den resultierenden Descriptoren durch die Euklidische Distanz evaluiert wird, können skalierbare Nächste-Nachbarn-Suchverfahren verwendet werden, um eine große Anzahl von Objekten unter einer großen Bandbreite von Posen effizient zu bearbeiten. Der gelernte Descriptor generalisiert gut auf unbekannte Objekte. Das Verfahren kann sowohl mit RGB, also auch RBG-D Bildern arbeiten und schlägt moderne Verfahren auf dem öffentlichen Datensatz von S. Hinterstoisser et al. (http://campar.in.tum.de/pub/hinterstoisser2011pami/hinterstoisser2011pami.pdf)
Detection and Fine 3D Pose Estimation of Texture-less Objects in RGB-D Images
(T. Hodan, X. Zabulis, M. Lourakis, S. Obdrzalek and J. Matas; Sep 2015)
Das in diesem Paper verwendete Detektions-Verfahren besteht aus einem “Sliding Window-Ansatz” kombiniert mit einer effizienten kaskardenartigen Auswertung jeder Fensterposition. D.h. es wird eine einfache Vorfilterung durchgeführt, die die meisten Fensterpositionen mittels eines einfachen Wahrscheinlichkeitstests anhand der Anzahl der Tiefenbild-Kanten recht schnell verwirft. Für jede verbleibende Fensterposition wird mit einem auf Hashing basierten Bewertungs-Verfahren eine Menge von Kandidaten-Templates (Bilder, die das dort abgebildete Objekt aus vielen verschiedenen Blickwinkeln zeigen) identifiziert. Dies macht die Berechnungskomplexität des Verfahrens weitgehend unabhängig von der Anzahl der bekannten Objekte. Die Kandidaten-Templates werden dann verifiziert, indem verschiedene Merkmale, wie die Objekt-Größe in Relation zur Kameradistanz zwischen je einem Template und dem betrachteten Bildausschnitt verglichen werden. Jedes Template ist verknüpft mit einer Pose aus der Trainingszeit, d.h. einer 3D Rotation und einer Distanz zum Ursprung des Kamera-Bezugssystems. Schließlich wird die mit jedem ermittelten Template verknüpfte ungefähre Objekt-Pose als Startpunkt für eine stochastische Partikelschwarmoptimierung (PSO) zur Bestimmung einer exakten 3D-Objekt-Pose verwendet.
(Review)
Playing Atari with Deep Reinforcement Learning
(V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra and M. Riedmiller; 19 Dec 2013)
Human-level control through deep reinforcement learning
(bzw. http://rdcu.be/cdlg)
(V. Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. Veness, M. G. Bellemare, A. Graves, M. Riedmiller, A. K. Fidjeland, G. Ostrovski, S. Petersen, C. Beattie, A. Sadik, I. Antonoglou, H. King, D. Kumaran, D. Wierstra, S. Legg and D. Hassabis; 25 Feb 2015)
Freeze-Thaw Bayesian Optimization
(K. Swersky, J. Snoek and R. P. Adams; 16 Jun 2014)
Beschleunigung der “Bayesanischen Optimierung” zum Auffinden der optimalen Hyperparameter eines Maschinellen Lernverfahrens. Eine Vorhersage über die Güte der Parametereinstellung kann i.d.R. bereits erfolgen, wenn das Modell erst ansatzweise trainiert wurde. “Freeze-Thaw” (Gefrieren-Tauen): Das Modell wird deshalb nicht mehr für jede Parametereinstellung bis zum Ende austrainiert, sondern nach Bedarf pausiert (“eingefrohren”) und später ggf. wieder fortgesetzt (“aufgetaut”). Eine wesentliche Annahme für den hier verfolgten Ansatz ist, dass die Zielfunktionswerte während des Trainings in etwa exponentiell in Richtung eines unbekannten Endwertes hin abnehmen. Deshalb wird ein “Prior” entwickelt, der exponentiell abfallende Funktionen besonders begünstigt.
(Review)
Recurrent Spatial Transformer Networks
(S. Kaae Sønderby, C. Kaae Sønderby, L. Maaløe and O. Winther; 17 Sept 2015)
Einbau des von M. Jaderberg und Co. entwickelten “Spatial Transformer”-Moduls (SPN) (s.u.) in ein rekurrentes neuronales Netzwerk (RNN). Verwendung einer affinen Transformation und einer bilinearen Interpolation innerhalb des Spatial Transformer-Moduls. Das rekurrente neuronale Netz mit Spatial Transformer-Modul (RNN-SPN) ist, im Gegensatz zum Feedforward Netz mit Spatial Transformer-Modul (FNN-SPN), imstande jedes Element einer Sequenz (z.B. jede Ziffer einer Hausnummer) einzeln zu behandeln und deshalb für die Klassifikation von Sequenzen besser geeignet.
Spatial Transformer Networks
(M. Jaderberg, K. Simonyan, A. Zisserman and K. Kavukcuoglu; 5 Jun 2015)
Einführung eines differenzierbaren “Spatial Transformer”-Moduls, das in bestehende ConvNet-Architekturen eingefügt werden kann und es so ermöglicht, die Featuremaps eines ConvNets während des Trainings räumlich zu transformieren, also eine räumliche Invarianz gegenüber Translation, Rotation, Skalierung, etc. automatisch mitzutrainieren. Die Spatial Transformer-Module können mittels gewöhnlicher Back-Propagation trainiert werden, so dass ein End-to-End-Training des gesamten Netzwerks möglich bleibt. Der Aufbau des Spatial Transformer-Moduls lässt sich in drei Teile unterteilen: 1.) Ein Lokalisierungs-Netzwerk \(f_\text{loc}\), welches als Eingabe eine Feature Map bekommt und die Parameter der räumlichen Transformation, die darauf angewandt werden soll, ausgibt. 2.) Ein Gitter-Generator \(f_\text{gridGen}\), der die vorhergesagten Transformations-Parameter verwendet um ein Sampling-Gitter zu erzeugen, welches aus einer Menge von Punkten besteht, auf der die Eingangs-Feature Map ausgewertet werden soll. 3.) Ein Sampler \(f_\text{sampler}\), der die Eingangs-Feature Map und das Sampling-Gitter verwendet, um aus der Eingangs-Feature Map, ausgewertet an den Gitterpunkten des Sampling-Gitters, die Ausgabe-Feature Map zu erzeugen. \(\small (f_\text{loc}(U) = \theta \ \rightarrow \ f_\text{gridGen}(\theta, G) = \tau_\theta(G) \ \rightarrow \ f_\text{sampler}(U, \tau_\theta(G))=V)\)
R-CNN minus R
(K. Lenc and A. Vedaldi; 23 Jun 2015)
Alternative zum “Faster R-CNN”-Verfahren von S. Ren und Co. Die Bild-abhängige Generierung der Kandidaten-Regionen wird komplett entfernt (“R-CNN minus R”). Stattdessen wird eine Bild-unabhängige Liste von Kandidaten-Regionen verwendet und darauf gesetzt, dass das ConvNet im Nachhinein eine akkurate Lokalisierung durchführt. Um eine Liste von Bild-unabhängigen Kandidaten-Regionen zu konstruieren, wird zunächst die Verteilung der Bounding-Boxen in einem repräsentativen Object Detection-Datensatz, hier dem PASCAL VOC 2007-Datensatz, studiert. Die Boxen tendieren dazu, nahe dem Bildzentrum aufzutreten und das Bild zu füllen (\(\rightarrow\) “Ground Truth-Verteilung”). Die Abtastung eines “Sliding Window”-Verfahrens wird nun so modifiziert, dass die Bounding Box-Verteilung am Ende der PASCAL VOC 2007-Bounding Box-Verteilung entspricht. Dies wird erreicht, indem n K-means Kluster anhand der Bounding Boxen aus dem PASCAL VOC 2007-Datensatz berechnet werden. Wie erwartet, entspricht die resultierende Verteilung gut der Ground Truth-Verteilung, sogar für eine kleine Menge von n = 3000 Kluster-Zentren. Die so erzeugte Bild-unabhängige Menge von Kandidaten-Regionen kombiniert mit einem ConvNet-basierten Bounding Box-Regressor, resultiert in einem ähnlich guten (nur wenig schlechteren) und sehr schnellen Object-Detector verglichen mit dem Faster R-CNN Object Detector.
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
(S. Ren, K. He, R. Girshick and J. Sun; 4 Jun 2015)
Fast R-CNN
(R. Girshick; 30 Apr 2015)
Rich feature hierarchies for accurate object detection and semantic segmentation
(R. Girshick, J. Donahue, T. Darrell and J. Maliket; 11 Nov 2013)
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
(K. He, X. Zhang, S. Ren and J. Sun; 18 Jun 2014)
Visualizing and Understanding Convolutional Networks
(M. D. Zeiler and R. Fergus; 12 Nov 2013)
Very Deep Convolutional Networks for Large-Scale Image Recognition
(K. Simonyan and A. Zisserman; 4 Sep 2014)
Going Deeper with Convolutions
(C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke and A. Rabinovich; 17 Sep 2014)
Fractional Max-Pooling
(B. Graham; 18 Dec 2014)
Network In Network
(M. Lin, Q. Chen and S. Yan; 16 Dec 2013)
ImageNet Classification with Deep Convolutional Neural Networks
(A. Krizhevsky, I. Sutskever and G. E. Hinton; 2012)
Deep Learning using Linear Support Vector Machines
(Y. Tang; 2 Jun 2013)
Winner of the ICML 2013 Facial Expression Recognition Challenge hosted on Kaggle
Deep Learning in Neural Networks: An Overview
(J. Schmidhuber; 30 Apr 2014)
A robust, coarse-to-fine traffic sign detection method
(G. Wang, G. Ren, Z. Wu, Y. Zhao and L. Jiang; 2013)
Winner (1st place) of the German Traffic Sign Detection Benchmark (GTSDB)
Deep Sparse Rectifier Neural Networks
(X. Glorot, A. Bordes and Y. Bengio; 2011)
Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks
(I. J. Goodfellow, Y. Bulatov, J. Ibarz, S. Arnoud and V. Shet; 20 Dec 2013)
Large Scale Distributed Deep Networks
(J. Dean, G. S. Corrado, R. Monga, K. Chen, M. Devin, Q. V. Le, M. Z. Mao, M. A. Ranzato, A. Senior, P. Tucker, K. Yang and A. Y. Ng; 2012)
Multi-column deep neural network for traffic sign classification
(D. Ciresan, U. Meier, J. Masci and J. Schmidhuber; 2012)
Understanding the Bias-Variance Tradeoff
(S. Fortmann-Roe (developer of Insight Maker); June 2012)
Understanding the difficulty of training deep feedforward neural networks
(X. Glorot and Y. Bengio; 2010)
On the importance of initialization and momentum in deep learning
(I. Sutskever, J. Martens, G. Dahl and G. Hinton; 2013)
Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition
D. C. Ciresan, U. Meier, L. M. Gambardella and J. Schmidhuber; 1 Mar 2010)
Building High-level Features Using Large Scale Unsupervised Learning
(Q. V. Le, M. A. Ranzato, R. Monga, M. Devin, K. Chen, G. S. Corrado, J. Dean and A. Y. Ng; 2012)
Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks
(D. C. Ciresan, A. Giusti, L. M. Gambardella and J. Schmidhuber; 2013)
Winner of the MICCAI 2013 Grand Challenge on Mitosis Detection
Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition
(J. Nagi, F. Ducatelle, G. A. Di Caro, D. Ciresan, U. Meier, A. Giusti, F. Nagi, J. Schmidhuber and L. M. Gambardella; Nov 2011)
Index of titles:
3D ShapeNets: A Deep Representation for Volumetric Shape Modeling
Adversarial Feature Learning
Adversarially Learned Inference
Aligning 3D Models to RGB-D Images of Cluttered Scenes
A MultiPath Network for Object Detection
A New Method to Visualize Deep Neural Networks
A robust, coarse-to-fine traffic sign detection method
Asynchronous Methods for Deep Reinforcement Learning
Building High-level Features Using Large Scale Unsupervised Learning
Continuous control with deep reinforcement learning
Convolutional Neural Networks for joint object detection and pose estimation: A comparative study
Cross Modal Distillation for Supervision Transfer
Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition
DeepBox: Learning Objectness with Convolutional Networks
DeepCamera: A Unified Framework for Recognizing Places-of-Interest based on Deep ConvNets
Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks
Deep Learning in Neural Networks: An Overview
Deep Learning using Linear Support Vector Machines
Deep multi-scale video prediction beyond mean square error
Deep Residual Learning for Image Recognition
Deep Sparse Rectifier Neural Networks
DelugeNets: Deep Networks with Massive and Flexible Cross-layer Information Inflows
Detection and Fine 3D Pose Estimation of Texture-less Objects in RGB-D Images
Early Visual Concept Learning with Unsupervised Deep Learning
Evolution Strategies as a Scalable Alternative to Reinforcement Learning
Exploring Person Context and Local Scene Context for Object Detection
FaceNet: A Unified Embedding for Face Recognition and Clustering
Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
Fast Predictive Image Registration
Fast R-CNN
Fractional Max-Pooling
Freeze-Thaw Bayesian Optimization
GA3C: GPU-based A3C for Deep Reinforcement Learning
Going Deeper with Convolutions
Gradient-based Hyperparameter Optimization through Reversible Learning
Grid Long Short-Term Memory
High-Dimensional Continuous Control Using Generalized Advantage Estimation
Human-level control through deep reinforcement learning
Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization
Identity Mappings in Deep Residual Networks
ImageNet Classification with Deep Convolutional Neural Networks
Image-to-Image Translation with Conditional Adversarial Networks
Improving generalization performance using double backpropagation
Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks
Invertible Conditional GANs for image editing
Large Scale Distributed Deep Networks
Learning a Predictable and Generative Vector Representation for Objects
Learning both Weights and Connections for Efficient Neural Networks
Learning Compound Multi-Step Controllers under Unknown Dynamics
Learning Deconvolution Network for Semantic Segmentation
Learning Descriptors for Object Recognition and 3D Pose Estimation
Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection
Learning Invariant Feature Spaces to Transfer Skills with Reinforcement Learning
Learning Rich Features from RGB-D Images for Object Detection and Segmentation
Learning to Segment Object Candidates
Learning Visual Feature Spaces for Robotic Manipulation with Deep Spatial Autoencoders
Look and Think Twice: Capturing Top-Down Visual Attention with Feedback Convolutional Neural Network
Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition
“Memory foam” approach to unsupervised learning
Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks
Multi-column deep neural network for traffic sign classification
Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks
Network In Network
NIPS 2016 Tutorial: Generative Adversarial Networks
On Learning to Think: Algorithmic Information Theory for Novel Combinations of Reinforcement Learning Controllers and Recurrent Neural World Models
On the importance of initialization and momentum in deep learning
Particular object retrieval with integral max-pooling of CNN activations
Playing Atari with Deep Reinforcement Learning
Real-Time Full-Body Human Attribute Classification in RGB-D Using a Tessellation Boosting Approach
R-CNN minus R
Recurrent Convolutional Neural Network for Object Recognition
Recurrent Convolutional Neural Networks for Scene Labeling
Recurrent Spatial Transformer Networks
ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks
Rethinking the Inception Architecture for Computer Vision
R-FCN: Object Detection via Region-based Fully Convolutional Networks
RGB-D Object Recognition and Pose Estimation based on Pre-trained Convolutional Neural Network Features
Rich feature hierarchies for accurate object detection and semantic segmentation
Scene Labeling with LSTM Recurrent Neural Networks
Semantic Object Parsing with Graph LSTM
SimTrack: A Simulation-based Framework for Scalable Real-time Object Pose Detection and Tracking
Sparse 3D convolutional neural networks
Spatially-sparse convolutional neural networks
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
Spatial Transformer Networks
Speed learning on the fly
Stacked What-Where Auto-encoders
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks
Systematic evaluation of CNN advances on the ImageNet
The Predictron: End-To-End Learning and Planning
Train faster, generalize better: Stability of stochastic gradient descent
Understanding the Bias-Variance Tradeoff
Understanding the difficulty of training deep feedforward neural networks
Unrolled Generative Adversarial Networks
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
Very Deep Convolutional Networks for Large-Scale Image Recognition
Visualizing and Understanding Convolutional Networks
Wasserstein GAN