Künstliche Intelligenz verstehen

Inhaltsverzeichnis



  Materialien zum Buch ... 16

  Vorwort zur zweiten Auflage ... 17

  1.  Einleitung ... 19

       1.1 ... Worum es uns in diesem Buch geht ... 20

       1.2 ... Für wen wir dieses Buch geschrieben haben ... 21

       1.3 ... Aufbau der einzelnen Kapitel ... 22

       1.4 ... Ein Wort an die Programmierunkundigen ... 22

       1.5 ... Beispielprogramme und die Webseite zum Buch ... 23

       1.6 ... Warum wir JavaScript und p5.js verwendet haben ... 25

       1.7 ... Begriffliche Abgrenzung und Fachbegriffe ... 26

       1.8 ... Inhalte, Themen, Kapitel ... 27

       1.9 ... Dank ... 30

  2.  Texte bauen mit Markow ... 31

       2.1 ... Das Beispielprogramm Nonsense-Texter ... 35

       2.2 ... Der Code des Nonsense-Texters unter der Lupe ... 37

       2.3 ... Das Beispielprogramm Wörter vorschlagen ... 43

       2.4 ... Wörter vorschlagen ... 47

       2.5 ... Gewichteter Zufall ... 48

       2.6 ... Ideen zum Weitermachen ... 50

       2.7 ... Zusammenfassung und Ausblick ... 51

  3.  Schreibfehler automatisch korrigieren ... 53

       3.1 ... Das Beispielprogramm Wortvergleich ... 54

       3.2 ... Die Matrix befüllen ... 57

       3.3 ... Die Umsetzung im Beispielprogramm ... 62

       3.4 ... Das Beispielprogramm Korrekturvorschläge ... 65

       3.5 ... Ideen zum Weitermachen ... 67

       3.6 ... Zusammenfassung und Ausblick ... 68

  4.  Wörter gruppieren ... 69

       4.1 ... Items und Transaktionen ... 71

       4.2 ... Kenngrößen der Assoziationsanalyse ... 72

       4.3 ... Ein Beispiel von Hand gerechnet ... 76

       4.4 ... Das Beispielprogramm Begriffsnetz ... 79

       4.5 ... Eine Tour durch den Code ... 82

       4.6 ... Ideen zum Weitermachen ... 88

       4.7 ... Zusammenfassung und Ausblick ... 90

  5.  Spiele für eine Person lösen ... 93

       5.1 ... Das Spiel Fruchtkräsch ... 93

       5.2 ... Wie findet die KI den besten Zug? ... 95

       5.3 ... Eine vielseitig einsetzbare Spiel-KI ... 98

       5.4 ... Die Klasse Spielzustand ... 99

       5.5 ... Die Klasse KI ... 102

       5.6 ... Ideen zum Weitermachen ... 107

       5.7 ... Zusammenfassung und Ausblick ... 108

  6.  Spiele für zwei Personen gewinnen ... 109

       6.1 ... Das Spiel Reversi ... 110

       6.2 ... Das Beispielprogramm Reversi KI ... 111

       6.3 ... Der Minimax-Algorithmus ... 112

       6.4 ... Tiefensuche und Rekursion ... 115

       6.5 ... Die Klasse Spielzustand ... 123

       6.6 ... Die Klasse KI ... 126

       6.7 ... Beschleunigung mit Alpha-Beta-Pruning ... 130

       6.8 ... Ideen zum Weitermachen ... 131

       6.9 ... Zusammenfassung und Ausblick ... 132

  7.  Q-Learning ... 133

       7.1 ... Das Eichhörnchen und das Nussversteck ... 134

       7.2 ... Umwelt, Agent, Aktion und Belohnung ... 139

       7.3 ... Die Q-Tabelle ... 141

       7.4 ... Das Beispielprogramm Q-Lerner ... 142

       7.5 ... Die Q-Tabelle befüllen ... 147

       7.6 ... Der Code unter der Lupe ... 150

       7.7 ... Gamma bestimmt die Weitsicht ... 152

       7.8 ... Epsilon: Erforschung oder Anwendung ... 154

       7.9 ... Ein zweiter Blick auf den Code ... 156

       7.10 ... Alpha ... 158

       7.11 ... Was wir weggelassen haben ... 159

       7.12 ... Ideen zum Weitermachen ... 161

       7.13 ... Zusammenfassung und Ausblick ... 163

  8.  K-nächste-Nachbarn ... 167

       8.1 ... Häschen, Igel, Vogelspinne oder Hai? ... 168

       8.2 ... Das Beispielprogramm Tiere erkennen ... 169

       8.3 ... Entfernungen bestimmen mit Pythagoras ... 172

       8.4 ... Der Code im Detail ... 175

       8.5 ... Ideen zum Weitermachen ... 178

       8.6 ... Zusammenfassung und Ausblick ... 179

  9.  K-means-Clustering ... 181

       9.1 ... Clusterbildung in Aktion ... 183

       9.2 ... Das Beispielprogramm Wetterdaten gruppieren ... 186

       9.3 ... Der Code ... 188

       9.4 ... Grenzen des Verfahrens ... 191

       9.5 ... Ideen zum Weitermachen ... 195

       9.6 ... Zusammenfassung und Ausblick ... 195

10.  Neuronale Netze I: Das Häschenproblem ... 197

       10.1 ... Bilderkennung: ein klassisches Problem ... 198

       10.2 ... Was ist ein Modell? ... 199

       10.3 ... Der Aufbau eines neuronalen Netzes ... 201

       10.4 ... Das Häschenneuron und seine Kollegen ... 204

       10.5 ... Das Beispielprogramm Tiere erkennen II ... 209

       10.6 ... Der Code ... 211

       10.7 ... Ideen zum Weitermachen ... 211

       10.8 ... Zusammenfassung und Ausblick ... 212

11.  Neuronale Netze II: Auf dem Weg ins Tal ... 213

       11.1 ... Das überwachte Lernen ... 214

       11.2 ... Die schrittweise Justierung des Modells ... 216

       11.3 ... Das Beispielprogramm Gradientenabstieg ... 223

       11.4 ... Der Code ... 225

       11.5 ... Tipps zum Weitermachen ... 226

       11.6 ... Zusammenfassung und Ausblick ... 226

12.  Neuronale Netze III: Fehler zurückverfolgen mit dem Neuronentrainer ... 229

       12.1 ... Was ist Backpropagation? ... 230

       12.2 ... Das Beispielprogramm Neuronentrainer ... 231

       12.3 ... Validierungsdaten, Überanpassung, Generatoren ... 237

       12.4 ... Weitere Beispielaufgaben ... 240

       12.5 ... Die Anzahlen der verdeckten Schichten und der Neuronen ... 244

       12.6 ... Was wir weggelassen haben ... 245

       12.7 ... Ideen zum Weitermachen ... 246

       12.8 ... Zusammenfassung und Ausblick ... 248

13.  Neuronale Netze IV: Faltungsnetze, Autoencoder, GANs und DQL ... 249

       13.1 ... Faltungsnetze ... 249

       13.2 ... Modelle, die Bilder erzeugen ... 258

       13.3 ... Autoencoder ... 260

       13.4 ... Generative Adversarial Networks ... 261

       13.5 ... Deep Q-Learning ... 264

       13.6 ... Zusammenfassung und Ausblick ... 265

14.  Transformer verstehen ... 267

       14.1 ... Ein Sprachmodell von außen betrachtet ... 267

       14.2 ... Wörter in Zahlen codieren für Fortgeschrittene ... 269

       14.3 ... Worteinbettungen ... 270

       14.4 ... Das Beispielprogramm Wort-Navigator ... 276

       14.5 ... Vom Text zur Worteinbettung ... 282

       14.6 ... Vom Wort zum Satz zum Text: Sequenzeinbettungen ... 290

       14.7 ... Das Beispielprogramm Sequenz-Navigator ... 292

       14.8 ... Transformer am Horizont ... 297

       14.9 ... Zusammenfassung und Ausblick ... 301

       14.10 ... Ideen zum Weitermachen ... 304

  Nachwort: Auf der Suche nach Trurls Elektrobarden ... 305

  Anhang ... 313

       A ... Eine kurze Einführung in JavaScript und p5.js ... 315

       B ... Glossar ... 359

       C ... Quellen und weiterführende Literatur ... 369

       D ... Abbildungsverzeichnis ... 373

  Index ... 377

Künstliche Intelligenz verstehen

Der praktische Einstieg ins Fachgebiet KI – Ausprobieren und Weiterprogrammieren, mit Übungen und Glossar

Buch (Taschenbuch)

29,90 €

inkl. gesetzl. MwSt.

Künstliche Intelligenz verstehen

Ebenfalls verfügbar als:

Taschenbuch

Taschenbuch

ab 29,90 €
eBook

eBook

ab 29,90 €

Beschreibung

Details

Einband

Taschenbuch

Erscheinungsdatum

07.11.2023

Verlag

Rheinwerk

Seitenzahl

382

Maße (L/B/H)

22,7/17/2,4 cm

Beschreibung

Rezension

»Das große Plus des vorliegenden Buchs liegt denn auch darin, dass es dem Leser ermöglicht, grundlegende KI-Konzepte selbst auszuprobieren und dadurch zu begreifen. Das macht Spaß und ist überaus lehrreich. Daher empfiehlt sich das Buch für alle, die verstehen wollen, wie künstliche Intelligenz tatsächlich funktioniert.«
»Geboten wird ein interaktiver Blick in die Funktionsweise der KI, der Spaß macht.«
»Konsequent alltagsnah und ungewöhnlich unterhaltsam präsentiert dieses Lehrbuch wichtige KI-Themen. [...] Mit verblüffend alltagsnahen Beispielen und großartigen, teils sehr witzigen Illustrationen vermittelt es aber auch dieser Zielgruppe viel wichtiges Wissen rund um die KI.«
»Zugängliche, wirklich praxisorientierte Einführungen in KI sind nicht gerade üppig gesät. Pit Noack legt nun ein solches Buch vor. [...] Auch die Grafiken und Illustrationen von Sophia Sanner machen die sperrige, viel logisches Denken erfordernde Materie geschmeidiger.«

Details

Einband

Taschenbuch

Erscheinungsdatum

07.11.2023

Verlag

Rheinwerk

Seitenzahl

382

Maße (L/B/H)

22,7/17/2,4 cm

Gewicht

722 g

Auflage

2. Auflage

Sprache

Deutsch

ISBN

978-3-8362-9858-2

Weitere Bände von Rheinwerk Computing

Unsere Kundinnen und Kunden meinen

0.0

0 Bewertungen

Informationen zu Bewertungen

Zur Abgabe einer Bewertung ist eine Anmeldung im Konto notwendig. Die Authentizität der Bewertungen wird von uns nicht überprüft. Wir behalten uns vor, Bewertungstexte, die unseren Richtlinien widersprechen, entsprechend zu kürzen oder zu löschen.

Verfassen Sie die erste Bewertung zu diesem Artikel

Helfen Sie anderen Kund*innen durch Ihre Meinung

Erste Bewertung verfassen

Unsere Kundinnen und Kunden meinen

0.0

0 Bewertungen filtern

Weitere Artikel finden Sie in

Die Leseprobe wird geladen.
  • Künstliche Intelligenz verstehen


  •   Materialien zum Buch ... 16

      Vorwort zur zweiten Auflage ... 17

      1.  Einleitung ... 19

           1.1 ... Worum es uns in diesem Buch geht ... 20

           1.2 ... Für wen wir dieses Buch geschrieben haben ... 21

           1.3 ... Aufbau der einzelnen Kapitel ... 22

           1.4 ... Ein Wort an die Programmierunkundigen ... 22

           1.5 ... Beispielprogramme und die Webseite zum Buch ... 23

           1.6 ... Warum wir JavaScript und p5.js verwendet haben ... 25

           1.7 ... Begriffliche Abgrenzung und Fachbegriffe ... 26

           1.8 ... Inhalte, Themen, Kapitel ... 27

           1.9 ... Dank ... 30

      2.  Texte bauen mit Markow ... 31

           2.1 ... Das Beispielprogramm Nonsense-Texter ... 35

           2.2 ... Der Code des Nonsense-Texters unter der Lupe ... 37

           2.3 ... Das Beispielprogramm Wörter vorschlagen ... 43

           2.4 ... Wörter vorschlagen ... 47

           2.5 ... Gewichteter Zufall ... 48

           2.6 ... Ideen zum Weitermachen ... 50

           2.7 ... Zusammenfassung und Ausblick ... 51

      3.  Schreibfehler automatisch korrigieren ... 53

           3.1 ... Das Beispielprogramm Wortvergleich ... 54

           3.2 ... Die Matrix befüllen ... 57

           3.3 ... Die Umsetzung im Beispielprogramm ... 62

           3.4 ... Das Beispielprogramm Korrekturvorschläge ... 65

           3.5 ... Ideen zum Weitermachen ... 67

           3.6 ... Zusammenfassung und Ausblick ... 68

      4.  Wörter gruppieren ... 69

           4.1 ... Items und Transaktionen ... 71

           4.2 ... Kenngrößen der Assoziationsanalyse ... 72

           4.3 ... Ein Beispiel von Hand gerechnet ... 76

           4.4 ... Das Beispielprogramm Begriffsnetz ... 79

           4.5 ... Eine Tour durch den Code ... 82

           4.6 ... Ideen zum Weitermachen ... 88

           4.7 ... Zusammenfassung und Ausblick ... 90

      5.  Spiele für eine Person lösen ... 93

           5.1 ... Das Spiel Fruchtkräsch ... 93

           5.2 ... Wie findet die KI den besten Zug? ... 95

           5.3 ... Eine vielseitig einsetzbare Spiel-KI ... 98

           5.4 ... Die Klasse Spielzustand ... 99

           5.5 ... Die Klasse KI ... 102

           5.6 ... Ideen zum Weitermachen ... 107

           5.7 ... Zusammenfassung und Ausblick ... 108

      6.  Spiele für zwei Personen gewinnen ... 109

           6.1 ... Das Spiel Reversi ... 110

           6.2 ... Das Beispielprogramm Reversi KI ... 111

           6.3 ... Der Minimax-Algorithmus ... 112

           6.4 ... Tiefensuche und Rekursion ... 115

           6.5 ... Die Klasse Spielzustand ... 123

           6.6 ... Die Klasse KI ... 126

           6.7 ... Beschleunigung mit Alpha-Beta-Pruning ... 130

           6.8 ... Ideen zum Weitermachen ... 131

           6.9 ... Zusammenfassung und Ausblick ... 132

      7.  Q-Learning ... 133

           7.1 ... Das Eichhörnchen und das Nussversteck ... 134

           7.2 ... Umwelt, Agent, Aktion und Belohnung ... 139

           7.3 ... Die Q-Tabelle ... 141

           7.4 ... Das Beispielprogramm Q-Lerner ... 142

           7.5 ... Die Q-Tabelle befüllen ... 147

           7.6 ... Der Code unter der Lupe ... 150

           7.7 ... Gamma bestimmt die Weitsicht ... 152

           7.8 ... Epsilon: Erforschung oder Anwendung ... 154

           7.9 ... Ein zweiter Blick auf den Code ... 156

           7.10 ... Alpha ... 158

           7.11 ... Was wir weggelassen haben ... 159

           7.12 ... Ideen zum Weitermachen ... 161

           7.13 ... Zusammenfassung und Ausblick ... 163

      8.  K-nächste-Nachbarn ... 167

           8.1 ... Häschen, Igel, Vogelspinne oder Hai? ... 168

           8.2 ... Das Beispielprogramm Tiere erkennen ... 169

           8.3 ... Entfernungen bestimmen mit Pythagoras ... 172

           8.4 ... Der Code im Detail ... 175

           8.5 ... Ideen zum Weitermachen ... 178

           8.6 ... Zusammenfassung und Ausblick ... 179

      9.  K-means-Clustering ... 181

           9.1 ... Clusterbildung in Aktion ... 183

           9.2 ... Das Beispielprogramm Wetterdaten gruppieren ... 186

           9.3 ... Der Code ... 188

           9.4 ... Grenzen des Verfahrens ... 191

           9.5 ... Ideen zum Weitermachen ... 195

           9.6 ... Zusammenfassung und Ausblick ... 195

    10.  Neuronale Netze I: Das Häschenproblem ... 197

           10.1 ... Bilderkennung: ein klassisches Problem ... 198

           10.2 ... Was ist ein Modell? ... 199

           10.3 ... Der Aufbau eines neuronalen Netzes ... 201

           10.4 ... Das Häschenneuron und seine Kollegen ... 204

           10.5 ... Das Beispielprogramm Tiere erkennen II ... 209

           10.6 ... Der Code ... 211

           10.7 ... Ideen zum Weitermachen ... 211

           10.8 ... Zusammenfassung und Ausblick ... 212

    11.  Neuronale Netze II: Auf dem Weg ins Tal ... 213

           11.1 ... Das überwachte Lernen ... 214

           11.2 ... Die schrittweise Justierung des Modells ... 216

           11.3 ... Das Beispielprogramm Gradientenabstieg ... 223

           11.4 ... Der Code ... 225

           11.5 ... Tipps zum Weitermachen ... 226

           11.6 ... Zusammenfassung und Ausblick ... 226

    12.  Neuronale Netze III: Fehler zurückverfolgen mit dem Neuronentrainer ... 229

           12.1 ... Was ist Backpropagation? ... 230

           12.2 ... Das Beispielprogramm Neuronentrainer ... 231

           12.3 ... Validierungsdaten, Überanpassung, Generatoren ... 237

           12.4 ... Weitere Beispielaufgaben ... 240

           12.5 ... Die Anzahlen der verdeckten Schichten und der Neuronen ... 244

           12.6 ... Was wir weggelassen haben ... 245

           12.7 ... Ideen zum Weitermachen ... 246

           12.8 ... Zusammenfassung und Ausblick ... 248

    13.  Neuronale Netze IV: Faltungsnetze, Autoencoder, GANs und DQL ... 249

           13.1 ... Faltungsnetze ... 249

           13.2 ... Modelle, die Bilder erzeugen ... 258

           13.3 ... Autoencoder ... 260

           13.4 ... Generative Adversarial Networks ... 261

           13.5 ... Deep Q-Learning ... 264

           13.6 ... Zusammenfassung und Ausblick ... 265

    14.  Transformer verstehen ... 267

           14.1 ... Ein Sprachmodell von außen betrachtet ... 267

           14.2 ... Wörter in Zahlen codieren für Fortgeschrittene ... 269

           14.3 ... Worteinbettungen ... 270

           14.4 ... Das Beispielprogramm Wort-Navigator ... 276

           14.5 ... Vom Text zur Worteinbettung ... 282

           14.6 ... Vom Wort zum Satz zum Text: Sequenzeinbettungen ... 290

           14.7 ... Das Beispielprogramm Sequenz-Navigator ... 292

           14.8 ... Transformer am Horizont ... 297

           14.9 ... Zusammenfassung und Ausblick ... 301

           14.10 ... Ideen zum Weitermachen ... 304

      Nachwort: Auf der Suche nach Trurls Elektrobarden ... 305

      Anhang ... 313

           A ... Eine kurze Einführung in JavaScript und p5.js ... 315

           B ... Glossar ... 359

           C ... Quellen und weiterführende Literatur ... 369

           D ... Abbildungsverzeichnis ... 373

      Index ... 377