Jaringan Syaraf Tiruan [2]: Model McCulloh-Pitts dan Hebb

hidayat erwin
16 Jun 202022:36

Summary

TLDRThe video introduces neural networks, starting with the McCulloch-Pitts model, developed in 1943, highlighting its activation functions and limitations. It explains how the model works for simple logic functions like AND and OR but struggles with complex inputs. The Hebbian learning model is introduced as an enhancement, adding a bias term and enabling supervised learning through weight adjustments. The video also demonstrates how these models can recognize patterns, such as letters, using bipolar data and supervised learning. It concludes by encouraging further exploration of neural networks through training and testing methods.

Takeaways

  • 🧠 The video begins by discussing basic neural networks and the progression to different models used in AI.
  • 👨‍🔬 The first model introduced is the McCulloch-Pitts model, proposed in 1943 by Warren McCulloch and Walter Pitts, often referred to as Threshold Logic Neurons (TLN).
  • ⚙️ One of the key limitations of the McCulloch-Pitts model is that it requires manual adjustment of weights and thresholds, which limits its application in complex problems.
  • 🔢 The McCulloch-Pitts model uses binary inputs and can handle simple logic gates like AND and OR functions, but fails with non-binary or multi-input problems.
  • 🔄 To improve the McCulloch-Pitts model, the Hebbian learning model was introduced, which automates weight and bias adjustments during training.
  • 💡 Hebbian learning is a supervised learning model proposed by Donald Hebb in 1949, and it enhances the neural network by adjusting weights and biases based on inputs and outputs.
  • ⚖️ The Hebbian model introduces bias values in addition to weights, and these are adjusted continuously until the desired output matches the target.
  • 🔍 A sample application of the Hebbian model involves binary inputs with values such as +1 and -1, allowing the network to learn patterns like logic gates and classify complex data.
  • ✍️ The video explains how to train and test the Hebbian model for pattern recognition, including training the network to recognize shapes like 'T' and 'O' using matrix representation.
  • 📊 The script emphasizes the importance of initializing weights and biases in the Hebbian model before training and continuously adjusting them to improve accuracy in pattern recognition.

Q & A

  • What is the main characteristic of the McCulloch-Pitts model?

    -The main characteristic of the McCulloch-Pitts model is its use of a threshold activation function. The weights and threshold values are always constant, and it is primarily used for simple logical functions.

  • What is a key limitation of the McCulloch-Pitts model?

    -A key limitation of the McCulloch-Pitts model is that it requires manual adjustment of weights through trial and error, making it inefficient for complex problems with more than two inputs or non-binary data.

  • For what type of logic functions can the McCulloch-Pitts model be used?

    -The McCulloch-Pitts model can be used for simple logic functions such as AND and OR, as demonstrated through truth tables in the script.

  • How does the Hebb model differ from the McCulloch-Pitts model?

    -The Hebb model differs from the McCulloch-Pitts model by introducing a bias and utilizing supervised learning. It updates the weights and biases automatically based on learning, which improves its ability to handle more complex tasks.

  • What is the primary purpose of the bias in the Hebb model?

    -The primary purpose of the bias in the Hebb model is to adjust the neuron's output by adding a constant value to the weighted sum of inputs, ensuring the output aligns with the target values.

  • How are weights updated in the Hebb model?

    -In the Hebb model, weights are updated continuously by adding the product of the input value and the target output to the current weight. This process continues until the desired output is achieved.

  • What kind of data representation is used in the Hebb model?

    -The Hebb model uses bipolar data representation, where input and output values can be either +1 or -1, rather than binary (0 or 1).

  • What example is given to demonstrate the Hebb model's learning process?

    -An example provided is the learning of the AND logic function using bipolar input representation. The weights and biases are adjusted for four different data points to achieve the correct output.

  • What is the significance of the pattern recognition task in the Hebb model?

    -The pattern recognition task illustrates how the Hebb model can be used to identify specific shapes or patterns (e.g., 'T' and 'P' shapes) by training the model to recognize patterns using bipolar representation.

  • What is the final result of testing the Hebb model on new input patterns?

    -The final result of testing the Hebb model is that it successfully recognizes the third pattern as being more similar to the 'T' shape from the training set, demonstrating the model's ability to generalize from learned patterns.

Outlines

00:00

🤖 Introduction to Micro and Fit Models in Neural Networks

The paragraph begins with an introduction to neural networks, focusing on two models: the micro and fit models. The discussion covers the foundational model proposed by Warren McCulloch and Walter Pitts in 1943, known as the McCulloch-Pitts model, or 'threshold logic neuron.' This model uses fixed weights and thresholds, leading to limitations, especially with complex problems involving more than two non-binary inputs. A key example provided is the logical AND function, with a table outlining the truth values. Adjustments to threshold values are discussed to match expected output, highlighting the trial-and-error nature of the model.

05:03

🧠 The Hebb Model and Supervised Learning

This paragraph introduces the Hebb model, another foundational neural network model, which employs supervised learning. Unlike the McCulloch-Pitts model, it incorporates bias in addition to weights. The paragraph explains the continuous adjustment of weights and biases to better align outputs with expected values. The Hebb model operates under the premise of supervised learning, where outputs are adjusted to match known targets. The example provided shows how the Hebb model refines its weights and biases through iterations, demonstrating the learning process with inputs and logical functions.

10:03

🔄 Weight and Bias Adjustments in Hebb Model

The focus of this paragraph is on the iterative process of updating weights and biases in the Hebb model. It walks through how data from previous iterations are used to calculate new weights and biases. The calculation examples use logical functions, starting with initialization (setting weights and biases to zero) and then progressively updating them. The paragraph provides a detailed breakdown of how each input affects weight adjustments, showcasing the step-by-step process to fine-tune the model for accuracy.

15:04

🔍 Detailed Example of Training with Hebb Model

This paragraph presents an extended example of training the Hebb model using specific input patterns, such as logical AND and OR functions. It explains how each input pair, along with their associated weights and biases, leads to progressively refined calculations. The process of matching the calculated output to the expected output is emphasized, demonstrating how continuous learning occurs. The paragraph also highlights that the model’s learning is gradual and relies on repeated adjustments of the parameters.

20:05

🖼️ Recognizing Patterns with Hebb Model

The final paragraph shifts focus to pattern recognition using the Hebb model. The example provided shows how the model can be trained to recognize simple visual patterns, such as letters 'T' and 'O,' using a 3x3 grid. Each element of the grid is assigned a bipolar value (1 or -1) to represent the pattern, and the model adjusts its weights and biases based on these inputs. The paragraph concludes by explaining how the model can be used for more complex pattern recognition tasks and provides a closing remark about its effectiveness in supervised learning tasks.

Mindmap

Keywords

💡Neural Network

A neural network is a computational model inspired by the structure of the human brain, consisting of layers of interconnected nodes (neurons). In the video, the speaker discusses artificial neural networks (ANNs) as a key model for solving problems by mimicking biological neural processes. It relates to the theme of the video as the foundation of models like 'Micro-David' and 'Hebb,' which are specific implementations of neural networks.

💡Micro-David Model

The Micro-David model is one of the earliest types of artificial neurons introduced in 1943 by Warren McCulloch and Walter Pitts. It uses fixed weights and a step function as its activation function. In the video, this model is used to explain basic logic gates like AND and OR. Its limitation, as discussed, is that it requires manual tuning of weights, making it impractical for more complex tasks.

💡Hebbian Learning

Hebbian learning is a learning principle based on the idea that 'neurons that fire together, wire together.' It was proposed by Donald Hebb in 1949 and is used in supervised learning models. In the video, this concept is presented as an improvement over the Micro-David model, as it allows the network to adjust weights automatically based on the input and output, making it more adaptive.

💡Activation Function

An activation function in a neural network defines how the weighted sum of the inputs is transformed into the output of a neuron. The video mentions specific activation functions like the 'step function' used in the Micro-David model, and how changing the threshold affects the output of logic gates. The choice of activation function determines the network’s ability to capture non-linear patterns.

💡Weights

Weights are parameters within a neural network that determine the strength of the connection between neurons. In the video, weights are discussed in relation to the Micro-David and Hebb models, where they control how much influence a particular input has on the neuron's output. The video emphasizes how the Micro-David model requires manual adjustment of weights, while the Hebb model adjusts them automatically.

💡Bias

Bias is an additional parameter in a neural network that allows the model to have more flexibility in decision-making. The Hebb model introduces bias, which is not present in the Micro-David model. Bias helps shift the activation function curve and ensures that the model can output the correct result even when inputs are zero, as discussed in the context of logic gate implementation.

💡Logical Gates (AND, OR)

Logical gates are fundamental components of digital systems that process inputs to produce specific outputs, based on rules. In the video, the AND and OR gates are used to demonstrate how the Micro-David and Hebb models perform computations. The AND gate outputs true only when both inputs are true, while the OR gate outputs true when at least one input is true.

💡Supervised Learning

Supervised learning is a machine learning approach where the model is trained using labeled data, meaning the input and the corresponding output are known. In the video, the Hebb model is described as a supervised learning model where weights are updated continuously based on the input-output relationship to minimize error and match the target values.

💡Bipolar Input

Bipolar input refers to representing data using two values, typically +1 and -1, rather than the binary 0 and 1. In the video, bipolar inputs are used in the Hebb model to improve performance in logic gate simulations. The use of bipolar input allows the network to handle more complex patterns and helps in faster convergence of the learning algorithm.

💡Pattern Recognition

Pattern recognition is the ability of a neural network to identify patterns or regularities in input data. The video uses the example of recognizing shapes like 'T' and 'Y' as an application of the Hebb model. The model is trained to distinguish between different patterns by adjusting weights and biases based on the input.

Highlights

Introduction to the concept of artificial neural networks and a discussion on common models like micro and Hebbian networks.

The McCulloch-Pitts model, introduced in 1943, is one of the earliest artificial neuron models.

The McCulloch-Pitts neuron uses a fixed activation function and weights that require manual adjustment.

The McCulloch-Pitts model works for simple logical functions like AND, but it struggles with more complex problems or non-binary inputs.

The model uses binary inputs and outputs, often relying on trial and error to set weights.

Activation functions like the threshold function are commonly used in simple McCulloch-Pitts neurons.

The Hebbian model, introduced later, improves upon the McCulloch-Pitts by incorporating a bias term and learning over time.

Unlike McCulloch-Pitts, Hebbian learning updates weights automatically instead of manually.

Hebbian learning uses supervised training, continually adjusting weights and bias based on errors.

An example of the Hebbian model demonstrates its use with bipolar data and logic functions like AND.

The Hebbian learning rule updates both weights and bias after each input based on the target.

In the Hebbian model, weight and bias updates continue until the output matches the desired target.

Further refinement in the Hebbian model involves more complex architectures for larger problems and patterns.

The Hebbian model can be applied for pattern recognition, exemplified by recognizing two distinct patterns.

The Hebbian model’s ability to recognize patterns is demonstrated through comparison with neural inputs and learning outputs.

Transcripts

play00:00

Halo assalamualaikum warahmatullahi

play00:01

wabarakatuh dari konsep dasar jaringan

play00:04

syaraf tiruan kita akan melanjutkan

play00:06

materi kali ini dengan membahas contoh

play00:09

model yang banyak digunakan adalah model

play00:12

mikro dan Fit serta model Happy yang

play00:15

akan kita jadikan contoh pembahasannya

play00:19

ya kita mulai dari model mikropis

play00:21

terlebih dahulu ya Model neuron pertama

play00:24

ini diperkenalkan pada tahun 1943 oleh

play00:28

ahli syaraf wormate.lo serta hidrologika

play00:32

Walter pitts sering disebut juga dengan

play00:34

chest Hut logic neuron atau tln karena

play00:37

salah satu karakteristiknya adalah

play00:39

menggunakan fungsi aktivasi stressful

play00:42

bobot dan ambang batasnya selalu sama

play00:46

pada model neuron ini

play00:50

b****

play00:51

Hai kelemahan yang ada pada microwave

play00:54

ini adalah dia harus menentukan bobot

play00:57

secara analitik atau cairan er secara

play01:01

manual jadi harus coba-coba tidak bisa

play01:03

langsung ketemu sekali coba ya Nah pada

play01:08

fungsi-fungsi yang sederhana model ini

play01:11

diterapkan tapi untuk masalah yang lebih

play01:13

kompleks misalkan ada input yang lebih

play01:16

dari dua atau inputnya tidak biner maka

play01:18

cara ini tidak bisa digunakan memerlukan

play01:21

peningkatan yang lainnya secara

play01:24

terstruktur arsitektur ini digambarkan

play01:27

sebagai berikut ada dua buah input untuk

play01:29

contoh ini di sebelah kiri Ini ada x1

play01:32

dan x2 yang masing-masing punya bobotnya

play01:34

mudah Datsun mesin panggilan yaitu

play01:36

merupakan penjumlahan hasil dari

play01:38

Perkalian antara input dengan bobotnya

play01:40

kemudian dihitung menggunakan sebuah

play01:43

fungsi aktivasi tertentu ya maka

play01:44

ketahuan outputnya ada berapa Oke contoh

play01:48

dari penerapan mikro dan b ini adalah

play01:51

untuk mengenali fungsi logika n dan

play01:55

kalau teman-teman sudah sangat familiar

play01:57

ini adalah tabel kebenaran untuk jika

play01:59

n-nya jadi 003 01 n1700 dan satu ya Nah

play02:05

kita menggunakan tabel ini sebagai

play02:08

perhitungan selanjutnya yang pertama

play02:11

adalah ini 006 tadi outputnya itu adalah

play02:17

001 adalah 010 adalah 0 dan 1 M1 adalah

play02:22

satu nah dalam hal ini kita harus

play02:25

melakukan penyesuaian agar nilai ini

play02:28

bisa kita peroleh sehingga kita harus

play02:31

memastikan bahwa nilai perhitungan ini

play02:34

nanti sesuai dengan target yang

play02:37

diharapkan pada tabel kebenaran

play02:40

sebelumnya nah kah kita belum menerapkan

play02:43

sebuah ambang batas di dalamnya ya

play02:45

sehingga kita akan melakukan perhitungan

play02:47

bahwa outputnya ini harus sesuai dengan

play02:50

target

play02:51

awal tadi ya pada tabel kebenaran fungsi

play02:55

n sehingga kita akan menggunakan nilai

play02:59

derajat ambang batasnya adalah dua di

play03:02

sini ya teman-teman Bisa kok merubah

play03:05

ambang batasnya dengan angka-angka yang

play03:07

berlainan untuk mempermudah Bagaimana

play03:11

pemahaman tentang model mikropis ini

play03:16

ditekankan ya caranya Tebet meledak

play03:19

Netter nah selain fungsi ligga-n kita

play03:22

bisa menerapkan fungsi logika or untuk

play03:26

model neuron mikro dan baiknya para itu

play03:29

tabel gambar hanyalah sebagai berikut

play03:31

yaitu outputnya adalah 011 dan satu

play03:34

untuk masing-masing input x1 dan x2 yang

play03:36

diberikan ya jadi agar hasil output

play03:40

nanti untuk perhitungan antara nilai x

play03:45

Oh ya dengan W1 ditambahkan dengan X2

play03:50

dan G2 itu adalah sesuai dengan

play03:52

targetnya tadi ada 011 dan satu maka

play03:57

nilai ini harus kita atur terlebih

play04:01

dahulu

play04:03

yo yah jadi nggak kita akan menerapkan

play04:06

sebuah fungsi aktivasi Trafford dengan

play04:09

nilai ambang nya adalah satu jadi kalau

play04:12

untuk Senin siang tadi adalah dua kalau

play04:14

untuk muncul adalah satu nah untuk lebih

play04:16

mudah dalam menentukan silahkan kalian

play04:19

ganti dengan angka yang kalian kehendaki

play04:22

ya ini salah satu hal yang menyebabkan

play04:24

hidropik itu punya kelemahan karena dia

play04:26

harus menggunakan Thailand er tidak bisa

play04:29

salat tidak selalu bisa menghasilkan

play04:30

hasil yang diinginkan dengan sekali coba

play04:32

perlu proses yang belajar yang lebih

play04:35

banyak lagi

play04:36

yo yah nah selain model micro David kita

play04:40

punya model help ya atau yang dikenal

play04:43

dengan Febian Tool dan sejenisnya ya

play04:47

model HP ini diusulkan oleh download

play04:49

holding her pada 9496 tahun setelah

play04:54

metode micrographic ini ditemukan dia

play04:57

bisa disebut sebagai metode pengembangan

play04:59

ya dan model ini merupakan jaringan

play05:02

tertua yang menggunakan pembelajaran

play05:05

terawasi ya atau supervisor

play05:10

Hai nah pembelajaran ini dilakukan

play05:13

dengan melakukan perbaikan bobok dan

play05:16

pihak secara berkala atau kontinu nya

play05:19

teman-teman kita pelajari bersama dengan

play05:21

menentukan bobot dan bias lagi tidak

play05:23

menggunakan Thailand er melainkan

play05:25

menggunakan perhitungan secara otomatis

play05:28

ya kita akan belajar ini sebagai contoh

play05:32

dari model have nah tidak terlalu jauh

play05:35

berbeda dari jaringan micro David model

play05:39

head ini hanya menambahkan satu buah

play05:42

nilai disebut dengan bias ya Sehingga

play05:44

perhitungan untuk semakin function ini

play05:47

tinggal ditambahkan dengan pria

play05:49

Oh ya masih sama yaitu nya menggunakan

play05:51

William tamat dan nilai fungsi akibatnya

play05:54

nanti-nanti tidurkan dengan perhitungan

play05:56

agar inputnya ini nanti bisa masukkan

play06:00

output yang valid atau bersesuaian Nah

play06:03

kita menggunakan contoh ya pada model

play06:07

help untuk algoritmanya prosesnya adalah

play06:10

seperti ini pertama melakukan

play06:12

inisialisasi bobok dan hias biasanya

play06:15

juga digunakan adalah nol ya bobot

play06:17

berapa pun pada head ini biasanya

play06:20

menggunakan bobot nol dan bias

play06:22

menggunakan not ya Kalau tadi pada

play06:24

microdash tidak memiliki bias pada model

play06:26

head kita memiliki bias ya Nah kemudian

play06:30

dilakukan perhitungan set aktivasi untuk

play06:32

input dan output ya Ada nilai x di sini

play06:35

biar kelihatan mengenal nilai-nilai yang

play06:37

lainnya sebagai waktu di sini Kemudian

play06:38

pada proses model head ini ada yang

play06:41

namanya proses perbaikan bobot serta

play06:43

proses perbaikan bias yang tadi

play06:46

disebutkan diawal ya perbaikan Ubud

play06:49

ini depan secara kontinu atau

play06:51

terus-menerus sampai hasil akhirnya

play06:54

adalah sesuai dengan target yang

play06:55

diharapkan Oke kita punya contoh yang

play07:00

ketiga Buatlah model head menggunakan

play07:03

logika kepada logika n jika representasi

play07:06

input dan outputnya adalah bipolar ya

play07:10

Jadi pada jaringan head model head itu

play07:11

data representasi data yang digunakan

play07:14

adalah bipolar ya dia bisa menggunakan

play07:17

kinerja dipenuhi pula terjadi kasus ini

play07:19

kita menggunakan pola dan contoh

play07:21

selanjutnya akan menggunakan digelar

play07:22

juga ya Nah kalau ada dua buah input x1

play07:26

dan y1 ya fungsinya adalah seperti ini

play07:29

ya menggunakan fungsi logika n maka

play07:33

outputnya adalah seperti ini dan 10 11

play07:36

dan 16 kalau tidak sama dengan nilai ini

play07:39

berarti kita harus menentukan fungsi

play07:42

aktivasinya secara benar agar outputnya

play07:46

adalah = G target sebelah sini ya

play07:49

Hai maka kita akan melakukan proses

play07:51

perhitungan untuk data yang pertama

play07:53

karena ada empat input kita akan

play07:54

menggunakan masing-masing input sebagai

play07:55

data masing-masing ada data1 data2

play07:58

gantikan dengan rata 4 kita mulai dari

play08:00

data yang pertama Ya pertama yang

play08:03

dilakukan adalah inisialisasi bobok dan

play08:05

bias lebih dahulu sebagaimana disebutkan

play08:07

bahwa biasanya di awal perhitungan itu

play08:10

bobotnya agak nol termasuk dengan

play08:12

biasanya data yang pertama adalah buat

play08:15

pertama adalah min 1 buat kedua max1

play08:18

adalah min 1 e261 serta target kita

play08:21

adalah min 1 ya disebutkan di sebelah

play08:23

sini Kemudian untuk melakukan perubahan

play08:25

kode kiat-kita melakukan secara kontinu

play08:28

ya persamaannya adalah seperti ini untuk

play08:30

mencari bobot yang baru yang digunakan

play08:33

adalah pupuk yang lama ditambahkan

play08:35

Perkalian antara nilai x data tersebut

play08:38

dikalikan dengan nilai Y atau target

play08:41

yang bersesuaian ya Jadi kalau

play08:44

teman-teman lihat ya bobot yang lama itu

play08:46

adalah bobot yang diawali Nikita

play08:48

definisikan

play08:49

dulu ya ini adalah untuk B1 kemudian

play08:52

nilai X1 ini ya asalnya adalah dari sini

play08:55

yang kita highlight dengan warna berbeda

play08:58

disini muda nilainya hingga target

play09:00

sebagaimana disebutkan diatas di sini ya

play09:03

adalah Mini satu kalau dihitung bobot

play09:06

yang satu ini hasil akhirnya adalah satu

play09:08

Jono tempat yang dunia jelasnya adalah

play09:10

satu berdasarkan perhitungan yang sudah

play09:12

dilakukan dan selain bobot kita harus

play09:15

memperbarui bias juga biasanya dihitung

play09:18

dengan menjumlahkan bias yang lama di

play09:21

awalnya adalah nol ditambahkan dengan

play09:23

targetnya yaitu minyak satu untuk data

play09:25

yang pertama sehingga diperoleh 11 dan

play09:28

12 untuk B1 B2 serta untuk bias pada

play09:30

data yang pertama nah angka ini ya wis

play09:34

satu ini W2 ini dan pihak ini akan kita

play09:37

gunakan untuk

play09:38

Hai melakukan perhitungan data yang

play09:41

kedua jadi data yang kedua ini tidak

play09:44

lagi menggunakan bobok dan biasa awal

play09:45

tapi bobok dalam hias Jati data yang

play09:48

pertama begitu seterusnya ya angka

play09:52

111611 dan satunya meminta gunakan untuk

play09:55

data yang kedua sebagai berikut ya Ada

play09:58

inputnya adalah mint 11 dan terkecil

play10:00

adalah min 1 nantikan ini adalah bobot

play10:02

yang lama ya yang kita peroleh dari data

play10:05

pertama tadi ya serta ini adalah biak

play10:08

yang sebelumnya sudah kita perhitungkan

play10:10

maka diperoleh pada kedua bobot baru

play10:14

untuk B1 B2 baru serta bias yang baru 20

play10:19

dan mint dua yang kita gunakan untuk

play10:21

melakukan perhitungan pada data yang

play10:23

ketiga ya sebagai berikut ya makan kita

play10:28

akan peroleh nilai inputnya adalah satu

play10:30

min 1 dan targetnya adalah min 1

play10:32

sehingga perhitungan dari berubah gudang

play10:35

diyakini adalah 11 dan mint 311

play10:38

menjaganya

play10:38

gunakan untuk datang ke 4nya ditemenin

play10:41

bisa cek ini adalah satu ini adalah satu

play10:44

dan biasanya adalah minus 3 sehingga

play10:46

diperoleh untuk dari akibat ini ya bobot

play10:49

akhirnya adalah 22 serta biasa akhir

play10:52

untuk data Three kita adalah minus

play10:57

hai oke Nah dari sini kita peroleh

play10:59

angkanya adalah sebagai berikut

play11:02

Hai kau dimasukkan dalam perhitungan ini

play11:03

ya Perkalian antara nilai x dengan

play11:06

bobotnya ditambahkan dengan bias

play11:08

masing-masing ya ini adalah berita yang

play11:11

diperoleh sebelumnya adalah 22 serta

play11:14

minggu aku ini adalah hasil akhir dari

play11:16

data yang keempat tadi ya jadi Sudah

play11:19

sudah ketemu dengan bobot 12 serta biar

play11:21

Tahir makan itu digunakan untuk menguji

play11:24

data masukkan hasilnya adalah seperti

play11:26

ini ada min 6 min 2 min 2 dan 2 Nah agar

play11:30

nilai ini sesuai dengan target atau

play11:33

output yang diharapkan maka kita bisa

play11:37

mengatur fungsinya itu dress code nya

play11:40

adalah min 1 dan

play11:43

Oh ya bagaimana caranya ya karena 66 ini

play11:47

kalau efeknya adalah min 6 ya mee6 itu

play11:51

tentu kurang dari nol ya hingga Nyonya

play11:54

adalah min 1 kemudian kalau kalian

play11:56

perhatikan ini adalah minus 2 juga Sama

play11:59

ini juga kurang dari nol Sehingga ini

play12:01

adalah min 1 Bagaimana dengan dua kalau

play12:03

dunia dua itu Berarti kan nilainya lebih

play12:05

besar sama dengan nol Ya enggak ya Jadi

play12:08

untuk F2 kan Aduh ini lebih besar sama

play12:10

dengan nol berarti nilainya adalah satu

play12:13

gitu maksud cara menggunakan fungsi

play12:16

aktivasi

play12:17

Hai tidak ha oke kita pakai contoh yang

play12:22

lebih bervariasi lagi kalau ini adalah

play12:25

untuk mencari logika and dan or ya tadi

play12:30

di awal untuk selanjutnya model HP ini

play12:33

kita gunakan untuk melakukan pengenalan

play12:35

pola ya dasar dari pengelola kurang

play12:38

lebih adalah seperti ini ya kita punya

play12:42

contoh

play12:45

Hai dua buah pola yang menyerupai huruf

play12:48

t dan huruf ya kita misalkan pola yang

play12:52

pertama ini adalah mirip dengan huruf t

play12:54

pola yang kedua ini adalah kita buat

play12:57

serupa dengan huruf poems akan begini ya

play13:00

Nah kita diminta untuk menggunakan model

play13:03

HP ini untuk melalui pola kedua buah

play13:06

karakter tidak ini ya Nah yang pertama

play13:10

dilakukan apabila ada soal seperti ini

play13:12

adalah melakukan representasi data pada

play13:16

model head menggunakan bipolar satu dan

play13:19

min 1 ya kemudian masing-masing elemen

play13:23

pada pola tadi kita coba reversal ikan

play13:27

menggunakan nilai keluar tadi misalkan

play13:29

kalau bagian yang dituliskan menggunakan

play13:33

tanda seperti ini ya eh tanda pagar

play13:37

seperti ini adalah Sabtu kalau tadi yang

play13:39

bentuknya lingkaran atas seperti huruf o

play13:41

itunya adalah minus 1 maka kita kemudian

play13:44

akan mengubah

play13:45

Hai pola tadi menjadi matriksnya

play13:47

kuburannya adalah tiga kali tiga pola

play13:51

yang pertama akan kita Ubah menjadi

play13:54

matriks ukurannya tiga kali tiga segi

play13:58

matematika lihat ya jadi akan ada 9x ada

play14:01

X1 = x 9 masing-masingnya bersesuaian

play14:05

dengan 111611 mint 1611 dan N1 karena

play14:10

tadi cerita tetapkan di atas ya jika

play14:12

bergambar seperti nilainya adalah 1

play14:14

kalau berupa lingkaran tahun punya

play14:17

dengan minum satu target untuk pola yang

play14:19

pertama ini adalah satu ya jadi nanti

play14:21

kita matikan bahwa outputnya adalah

play14:23

sudah dengan target dan hal yang sama

play14:25

kita lakukan untuk pola yang kedua ya

play14:28

yang berbeda adalah pola keduanya

play14:30

targetnya dalam 51 ya representasi

play14:33

datanya masih menggunakan Polmed 1 dan

play14:37

hai oke nah pada model have dan

play14:41

model-model yang lebih lanjut setelah

play14:45

Happy itu ada dua proses yang dilakukan

play14:47

pertama adalah tahap training atau

play14:49

pelatihan ya yang pertama dalam tahap

play14:52

Teknik ini kita akan melakukan

play14:54

inisialisasi bobot dan bias terlebih

play14:57

dahulu ya maka dari tahap yang pertama

play15:01

ini kita akan menentukan bobotnya untuk

play15:04

9 input menjadi dengan 9 bobot yang

play15:06

bersesuaian ini hasilnya adalah nol

play15:08

tampias untuk nilai yang diketahui

play15:10

adalah nol ya jadi bobot ideal sama

play15:13

dengan input jumlahnya tapi kalau

play15:14

biasanya satu ya pada model Happy Nah

play15:18

kalau sudah kita lakukan perubahan UU

play15:20

dan bias untuk pola yang pertama

play15:21

persamaannya adalah sama ya Kita akan

play15:24

menggunakan perubahan bobot itu adalah

play15:27

bobot yang baru diperoleh dengan cara

play15:30

menjumlahkan bobot yang lama dengan

play15:32

Perkalian antara nilai x dengan

play15:34

targetnya dia Misalkan X1 ini ya

play15:37

grafiknya adalah X1 ini yaitu adalah

play15:40

satu dan targetnya ini ya dianya ini

play15:43

adalah Y yang ada di bawah alias satu ya

play15:47

sehingga kalau temen-temen lihat ya

play15:50

nilai bobot awal ini adalah dari

play15:53

inisialisasi yang pertama Ya X1 adalah

play15:56

satu karena dari matriksnya begitu dan

play15:58

target kita adalah satu maka untuk buat

play16:01

yang pertama hasilnya adalah satu begitu

play16:04

seterusnya sampai dengan boot yang ke-9

play16:06

ini adalah bobot ke-9 di inisial tadi

play16:09

adalah nol ini disini kemudian ada nilai

play16:13

x untuk x 9 itu adalah minus 1 dan

play16:17

target kita Nyonya adalah satu maka

play16:19

diterapkan di sini hingga akhirnya

play16:21

adalah 111 dan seterusnya Sedangkan

play16:23

untuk bias itu adalah penjumlahan dari

play16:25

bias yang lama yaitu nol diawal tadi

play16:28

ditambahkan dengan target kita yaitu = 1

play16:31

hingga ketemunya adalah

play16:33

Hai nah nilai ini kemudian akan kita

play16:36

gunakan untuk melakukan proses perubahan

play16:39

ruko dan bias pada pola yang kedua jadi

play16:42

pola yang kedua nanti kita tidak

play16:45

menggunakan ke ini lagi tapi sudah

play16:47

menggunakan bobot dan kiat hasil

play16:50

perhitungan dari perubahan logo dan bias

play16:52

untuk pola yang pertama tanah ya Oke

play16:56

jadi model yang kedua pola yang kedua

play16:59

kita melakukan perubahan gorden kias

play17:01

yang menggunakan rumus yang sama

play17:03

diperoleh angka dua seperti ini agak 020

play17:05

sampai dengan minus 2 serta bobot hasil

play17:08

akhir untuk pola yang kedua ini adalah

play17:12

Oh ya maka kita bisa ringkas bahwa hasil

play17:16

akhir untuk W1 = we9 itu adalah seperti

play17:18

ini jadi 0 sampai dengan berdua dia

play17:20

syairnya adalah 0 nilai ini kita gunakan

play17:23

untuk melakukan pengujian seluruh data

play17:26

masukan yang prosesnya digunakan rumus

play17:31

atau persamaan seperti ini ya tadi

play17:33

fungsi semakin pensiun di awal ia untuk

play17:36

arsitektur model Happy itu adalah

play17:38

merupakan Perkalian antara nilai input

play17:41

dengan gofoodnya kemudian dijumlahkan

play17:43

kita mengabadikan biasnya Nah karena

play17:47

biar kita sama dengan nol maka nilai ini

play17:51

boleh kita buang sehingga kita hanya

play17:53

akan melakukan perhitungan untuk

play17:54

Perkalian antara nilai input X dengan W

play17:57

yang bersesuaian dengan kita jumlahkan

play17:59

total seluruhnya ya sehingga akan ketemu

play18:03

X1 dikalikan W1 ditambahkan dengan itu

play18:06

dan with 2 KG 2 dan seterusnya sampai

play18:08

dengan X9 tinggalkan dengan

play18:11

Oh ya maka diperoleh ini adalah 12 nah

play18:16

fungsi aktivasi yang kita pakai

play18:17

Facebooknya adalah 0 dan 0 untuk kurang

play18:21

dikenal untuk minum satu dan lebih besar

play18:23

sama dengan nol untuk satu ya kalau

play18:26

diperhatikan net-nya inilah 12 eh12 ini

play18:30

ya itu masuk nilainya adalah lebih besar

play18:35

sama dengan nol sehingga kalau efeknya

play18:38

12 maka nilai targetnya itu adalah satu

play18:42

ya sehingga waktu yang diperoleh ini

play18:45

adalah sama dengan target karena target

play18:47

untuk pulau yang pertama tadi adalah

play18:49

satu oke sekarang kalau sudah kita coba

play18:53

kenali betul upgrade dengan untuk pola

play18:55

yang kedua

play18:57

akhir-akhir dari pertemuan tadi

play18:58

menyatakan bahwa hasil total net-nya

play19:01

adalah minus 12 dengan fungsi niatnya

play19:04

dah seperti ini min 1 dan 1 dengan angka

play19:06

yang sama yaitu 0 dan 0 maka fb12

play19:10

tetapnya adalah min 1 ya karena 2012

play19:13

telah kurang dari nol sehingga outputnya

play19:15

adalah saat adalah minum satu dan Spike

play19:17

matte mengetahui fungsi output dari

play19:21

target atau aku dari pola kedua nih

play19:23

adalah minus 1 sehingga targetnya sudah

play19:26

diketahui dengan nilai yang sama dengan

play19:28

output yang dihasilkan ya dengan kata

play19:31

lain kita bisa mengambil kesimpulan

play19:34

bahwa model HP ini mampu mengenali pola

play19:37

dengan baik ya Jadi tetap training atau

play19:40

pelatihan nya sudah selesai kita selesai

play19:42

kita kerjakan karena kalau kita lewati

play19:45

tahap testing proses yang kedua ya

play19:47

bagaimana kalau kita diminta untuk

play19:50

menguji pola yang ketiga ini apakah dia

play19:53

mirip dengan huruf t atau huruf Ra

play19:57

Nah ya tinggal direpresentasikan pada

play19:59

matriks yang bersesuaian ya kalau satu

play20:02

adalah bentuknya lingkaran kalau mencatu

play20:05

dan Maaf min 1 adalah kalau saya

play20:07

prestasinya adalah bentuknya lingkaran

play20:09

kalau satu adalah bentuknya seperti

play20:11

tanda pagar maka di 9 Nilai input ini

play20:15

tidak perlu kita lakukan berbulan-bulan

play20:17

lihat karenanya ada proses pengujian ya

play20:19

ini tinggal kita masukan kedalam nett ya

play20:22

maka diperoleh dari 9 input X1 = 9 dan

play20:25

bobot tadi hasil perhitungan bobot

play20:27

terakhir ya perubahan gudang bias yang

play20:29

kedua Jaya kita gunakan di sini tidak

play20:31

lagi dari awal ya maka hasil akhirnya

play20:33

adalah 8 dan nilai delapan Ya tuh adalah

play20:39

masuk pada output sama dengan satu nah

play20:42

karena delapan itu adalah satu maka

play20:46

diingat yang targetnya itu adalah satu

play20:50

itu adalah huruf t sehingga pola yang

play20:53

ketiga ini lebih dikenali menyerupai

play20:57

Guruh t ya atau pola yang pertama

play21:00

Bagaimana bisa diikuti kalau masih belum

play21:04

hilangkan temen-temen latihan

play21:06

menggunakan pola yang di Kompleks ini

play21:09

ukurannya adalah lima kali jumlah Jadi

play21:11

ada lima kali lima input ya ada aku

play21:15

berintervensi tada biar tapi rasanya kok

play21:17

ada inisialisasi bobot dulu yang pertama

play21:20

kemudian diikuti dengan perubahan

play21:22

kebodohan ya kemudian ada dua pola

play21:24

berarti nanti hasil output dari bobot

play21:27

dan bias pola kedua akan kita gunakan

play21:28

untuk pengujian nah pola ketika ini yang

play21:31

kita jadikan sebagai nilai yang akan

play21:33

diujikan Apakah dia lebih mirip pola

play21:36

yang pertama atau pola yang kedua kalau

play21:38

bisa Al belum ada output yang ditentukan

play21:43

maka temen-temen silahkan Tentukan

play21:45

outputnya atau targetnya dalam hal ini

play21:48

maaf ya yang ditekan dengan m y disini

play21:52

terlebih dahulu menggunakan representasi

play21:54

data nilai Dipo

play21:57

Oh ya misalkan proyek pertamanya adalah

play21:59

diganti deh min 1 Sedangkan pola yang

play22:02

keduanya adalah satu silakan tapi ini

play22:04

bukan nilai mutlak atau mau teman-teman

play22:05

menggunakan otot yang samar untuk pola

play22:08

ke-11 dan pula kedua minyak juga boleh

play22:10

ya Intinya kalau misal belum ada nilai

play22:14

outputnya maka teman-teman silakan

play22:16

Tentukan targetnya terlebih dahulu

play22:18

menggunakan data bipolar Apakah satu

play22:20

atau N1 itu caranya ya silakan dilanjut

play22:25

dengan belajar dari awal semoga materi

play22:29

jaringan syaraf tiruan sampai dengan

play22:30

model HP ini bermanfaat terima kasih

play22:32

assalamualaikum warahmatullahi

play22:34

wabarokatuh

Rate This

5.0 / 5 (0 votes)

Related Tags
Neural NetworksMcCulloch-PittsHebb's RuleLogic OperationsPattern RecognitionMachine LearningSupervised LearningActivation FunctionsAI ModelsDeep Learning