Algorithmisches Lernen by Paul Fischer

By Paul Fischer

Das Buch gibt eine Einführung in das Gebiet des Algorithmischen Lernens, d. h. in den Bereich des Maschinellen Lernens, der methodische und komplexitätstheoretische Aspekte betont. Zunächst wird die Frage geklärt, was once überhaupt Lernen bedeutet und wann guy davon reden kann, eine Maschine habe gelernt. Anschließend wird einerseits untersucht, welche Objekte in diesem Sinne lernbar sind, andererseits werden auch die Grenzen aufgezeigt. Es werden strukturelle Resultate und algorithmische Entwurfsprinzipien für diese Verfahren dargestellt. Dabei geht es darum, zu bestimmen, wieviel info zum Lernen notwendig bzw. ausreichend ist. Darüber hinaus werden auch Verfahren für konkrete Aufgaben vorgestellt. Außerdem werden Methoden präsentiert, um unzureichende Lernverfahren zu verbessern und Störungen in der zum Lernen benutzten details herauszufiltern. Übungen ermöglichen die Überprüfung des richtigen Verständnisses beim Lesen des Buches.

Show description

Read or Download Algorithmisches Lernen PDF

Similar german_13 books

Lehrbuch der Technischen Mechanik: Dritter Band: Dynamik starrer Körper

Dieser Buchtitel ist Teil des Digitalisierungsprojekts Springer publication documents mit Publikationen, die seit den Anfängen des Verlags von 1842 erschienen sind. Der Verlag stellt mit diesem Archiv Quellen für die historische wie auch die disziplingeschichtliche Forschung zur Verfügung, die jeweils im historischen Kontext betrachtet werden müssen.

Wirtschaftsstandort Deutschland mit Zukunft: Erfordernisse einer aktiven und zielorientierten Wirtschaftsförderung

ZielgruppeFührungskräfte/Manager, Wirtschaftswissenschaftler, Berater, coach

Additional info for Algorithmisches Lernen

Sample text

Lm = r r IS(S)· rps(T) dD m dD m JxmJx m rps(T) dD m ) dD m Wenn das inn ere Integral mindestens ~ ist, so folgt die Aussage des Lemmas sofort: 46 KAPITEL 2 DAS PAC-MoDELL Wir schatzen nun das innere Integral abo Dazu uberlegen wir uns, dafi die Funktion * (T) := falls 3H 811. 20) die Bedingung H E IC (S) weggefallen ist. Wir zeigen daher ( CPs{T) d D Jxm m 2: !. 2 Sei H E 811. eine c-schlechte Hypothese, und sei CH 2: 10 der Fehler von H. Die Fehleranzahl F(T, H) ist dann eine binomialverteilte Zufallsvariable mit Erwartungswert CH.

Wenn die Stichprobe aus jedem Randrechteck Rt, mindestens ein (notwendigerweise positives) Beispiel enthiiJt, so gilt F c U:=:l Rt, und damit folgt D{F) < D ( 4 ) 4 4 ~Rt, ~ ~D{Rt,) ~ ~ G) = c. Wie groB muB unsere Stichprobe sein, damit dies mit Wahrscheinlichkeit mindestens 1 - c5 auftritt? 2ur Analyse betrachten wir den fur uns ungtinstigen Fall, daB mindestens ein Ri keinen Stichprobenpunkt enthaJt. Es bezeichne m die StichprobengroBe. Das Rechteck Rl hat das Gewicht (mindestens) c/4, also ist die Wahrscheinlichkeit, daB ein Beispiel nicht in Rl liegt, hochstens 1- (c/4) .

Wir wollen die Vapnik-Chervonenkis-Dimension nun formal definieren und ihre Bedeutung fUr die Lernbarkeit prazisieren. Sei dazu C eine Konzeptklasse tiber X und T eine m-elementige Teilmenge von X. Dann sagen wir, T wird von C zerschmettert, falls ftir aIle T' ~ T ein Konzept GT , E C existiert, so daB T n GT , = T'. 18 Sei C eine Konzeptklasse tiber X und T Teilmenge. Dann ist TIc(T) := {G n T I G E C} ~ X eine endliche die Menge der abgreifbaren Teilmengen von T. Die KapazitiitsJunktion von C ist definiert durch: I IIc(m) := max{ IIIc(T) I T ~ X, ITI = m} .

Download PDF sample

Rated 4.30 of 5 – based on 39 votes