Jaringan Syaraf Tiruan [1] : Konsep Dasar JST

hidayat erwin
16 Jun 202016:44

Summary

TLDRThis video introduces the concept of artificial neural networks (ANN), comparing them to biological neural networks in the human brain. It explains the structure of neurons, including dendrites, cell bodies, and axons, and how they process information. The video highlights the key components of ANNs, such as inputs, weights, and activation functions, and outlines the learning paradigms: supervised and unsupervised learning. The discussion covers different neural network architectures, including single-layer, multi-layer, and competitive networks, and their applications in fields like weather prediction and biometric identification.

Takeaways

  • 🧠 Artificial neural networks (ANN) are inspired by biological neural networks found in the human brain.
  • 🔗 Neurons in the brain process information through interconnected cells, leading to decision-making based on inputs and outputs.
  • ⚙️ ANN structure consists of components such as dendrites (input), soma (processing unit), axons (output), and synapses (connections).
  • 🎯 The goal of ANN is to mimic the functioning of biological neural networks by learning from data and experiences.
  • 📊 The mathematical model of ANN involves inputs, weights, activation functions, and outputs, where inputs are processed through layers of neurons.
  • 🔍 Activation functions play a key role in determining the output by processing the weighted sum of inputs.
  • 💡 ANN can be categorized into single-layer (input and output) and multi-layer networks (with hidden layers for complex problems).
  • 🎯 ANN's architecture defines how neurons are connected, and its learning process can be supervised or unsupervised.
  • 🏆 Supervised learning involves labeled data for training, whereas unsupervised learning allows the network to categorize data based on features.
  • 🔄 The ability of ANN to learn from data enables it to solve complex tasks, such as image recognition, weather prediction, and face unlocking.

Q & A

  • What is an artificial neural network (ANN) and how is it analogous to a biological neural network?

    -An artificial neural network (ANN) is a computational model inspired by the way biological neural networks function, such as those in the human brain. In a biological network, neurons process and transmit information, while in an ANN, artificial neurons, also called nodes, interact to process inputs and produce outputs, simulating the decision-making processes of the brain.

  • What are the main components of a biological neuron that are mirrored in an artificial neural network?

    -The main components of a biological neuron mirrored in an ANN are the dendrites (input pathways), the soma or cell body (processing unit), and the axon (output pathway). In an ANN, input nodes correspond to dendrites, the processing occurs in hidden layers akin to the soma, and the axon is represented by the output nodes that transmit the final result.

  • How does an ANN process information through its layers?

    -An ANN processes information through several layers: input, hidden, and output layers. The input layer receives data, the hidden layers process it through weighted connections and activation functions, and the output layer generates the result based on the processed information. The model learns to adjust the weights based on training data to improve performance.

  • What role does the activation function play in an artificial neural network?

    -The activation function in an ANN determines whether a neuron should be activated or not, based on the weighted sum of the inputs. It introduces non-linearity to the model, allowing it to learn and model complex patterns. Common activation functions include the sigmoid, tanh, and ReLU (Rectified Linear Unit).

  • What is a single-layer neural network, and how does it differ from a multi-layer network?

    -A single-layer neural network consists of one layer of input nodes directly connected to output nodes without any hidden layers in between. In contrast, a multi-layer neural network has one or more hidden layers between the input and output, allowing it to solve more complex problems by learning deeper representations of the data.

  • What are the two main types of learning paradigms in neural networks?

    -The two main types of learning paradigms in neural networks are supervised learning and unsupervised learning. In supervised learning, the network is trained on labeled data, meaning the output is known beforehand. In unsupervised learning, the network tries to identify patterns and structure in data without labeled outputs.

  • How does supervised learning differ from unsupervised learning in ANNs?

    -In supervised learning, the ANN is trained with input-output pairs, where the correct output is provided, and the network learns by comparing its predictions to the actual values. In unsupervised learning, the ANN is not provided with labeled outputs and instead identifies patterns or groupings within the data on its own.

  • What is a competitive neural network, and how does it function?

    -A competitive neural network is a type of ANN where neurons compete with each other to be the most active, with only one neuron or a subset of neurons 'winning' the competition to produce the output. This network is useful for tasks like clustering, where input data is grouped based on similarity.

  • What is a threshold function, and how does it work in a neural network?

    -A threshold function, also known as a step function, is an activation function that outputs a binary signal—either 0 or 1—depending on whether the input surpasses a certain threshold. This function is used to create binary decisions in a neural network.

  • What are some real-world applications of artificial neural networks?

    -Some real-world applications of ANNs include facial recognition systems, fingerprint-based attendance systems, weather prediction, and natural language processing. ANNs can also be used in various industries for tasks such as classification, forecasting, and decision-making.

Outlines

00:00

🧠 Introduction to Artificial Neural Networks

This paragraph introduces the concept of artificial neural networks (ANNs) by drawing an analogy with biological neural networks in the human brain. It explains that ANNs mimic the structure and function of biological neurons, which are responsible for processing information. The components of a biological neuron, such as the dendrites, soma, and axon, are described, along with their functions. The paragraph also discusses how ANNs are designed to process information through interconnected neurons, using input and output functions. It introduces the concept of activation functions and their role in determining the output of a neuron based on its inputs. The explanation concludes with a basic mathematical model of an ANN, highlighting the importance of weights and the activation function in producing the output.

05:00

🌐 Characteristics and Architecture of Neural Networks

The second paragraph delves into the characteristics and architecture of neural networks. It emphasizes the ability of ANNs to learn from experience, similar to how the human brain recognizes objects. The discussion then moves on to the different types of neural network architectures: single-layer networks, multi-layer networks, and competitive networks. Single-layer networks are straightforward, with direct connections between input and output layers. Multi-layer networks, on the other hand, have one or more hidden layers between the input and output, allowing them to solve more complex problems. Competitive networks are described as having neurons that compete with each other to become fully active. The paragraph also touches on the importance of architecture, weights determined through training, and activation functions in defining the characteristics of ANNs.

10:01

📚 Learning Paradigms in Neural Networks

This paragraph focuses on the learning paradigms in ANNs, which are categorized into supervised and unsupervised learning. Supervised learning involves teaching the network to associate inputs with desired outputs, using examples such as the backpropagation algorithm. Unsupervised learning, in contrast, does not require pre-labeled outputs; instead, the network is left to discover patterns in the data on its own. The paragraph uses the example of classifying fruits into different categories to illustrate supervised learning, where the network is taught to recognize specific features of each fruit type. Unsupervised learning is likened to allowing the network to group similar items together without prior knowledge of their categories. The paragraph also mentions that there are different types of learning, such as Hebbian learning and competitive learning.

15:02

🔄 Activation Functions and Applications of Neural Networks

The final paragraph discusses various activation functions used in ANNs, which determine the output of a neuron based on its activation level. It describes different types of activation functions, including threshold functions, linear functions, and saturating linear functions. The paragraph also contrasts binary and bipolar functions, explaining how they handle input values to produce outputs. Furthermore, it highlights the practical applications of ANNs, such as in biometric identification systems like fingerprint recognition and facial recognition for unlocking smartphones. It also mentions the use of ANNs in weather forecasting to predict events like rain and storms. The paragraph concludes with a summary of the learning objectives and a closing remark.

Mindmap

Keywords

💡Artificial Neural Network (ANN)

An Artificial Neural Network (ANN) is a computational model inspired by the way biological neural networks, such as those in the human brain, process information. In the video, ANN is compared to biological neurons, which receive inputs, process them, and produce outputs. The discussion emphasizes how ANNs mimic biological neural processes to make decisions and solve problems by learning from experience.

💡Neuron

A neuron is the basic unit of both biological and artificial neural networks. In biology, neurons receive, process, and transmit information through electrical and chemical signals. In the video, neurons in ANNs are explained as nodes that take inputs, process them using weights and activation functions, and then produce outputs. This concept is central to understanding how ANNs function, as neurons form the building blocks of these networks.

💡Dendrite

Dendrites are structures in biological neurons responsible for receiving signals from other neurons. In the video, dendrites are compared to input nodes in artificial neural networks, which receive input data. This analogy helps explain how inputs are processed in ANNs, just like dendrites pass information to the neuron for processing.

💡Axon

An axon is a part of the biological neuron that transmits signals to other neurons. In the context of ANNs, the axon is likened to the process that sends outputs from one neuron to others. The video uses this analogy to explain how information flows from one node to another in an artificial neural network, mimicking the biological transmission of data.

💡Activation Function

An activation function in ANNs determines whether a neuron should be activated or not, based on the input it receives. The video explains that the activation function plays a critical role in mapping inputs to outputs by applying a mathematical transformation. Examples like the 'sigmoid' or 'threshold' functions are mentioned, which influence the final output of the neural network.

💡Weights

Weights are parameters within an ANN that adjust the strength of the connection between neurons. The video describes weights as essential for learning, as they determine the influence of one neuron's output on another. For example, if there are 10 inputs, each will have an associated weight that impacts the final output, helping the network learn and adapt over time.

💡Hidden Layer

A hidden layer in an ANN refers to layers between the input and output layers that perform intermediary processing. In the video, the hidden layer is described as part of a multi-layered neural network that allows the network to solve more complex problems. This layer helps capture intricate patterns in the data by processing input signals before passing them to the output.

💡Supervised Learning

Supervised learning is a type of machine learning where the model is trained on labeled data. In the video, this concept is explained in the context of ANNs, where the network learns by using pre-defined input-output pairs, adjusting weights based on errors in prediction. Examples given include algorithms like the perceptron and backpropagation, which are common methods for training neural networks in a supervised manner.

💡Unsupervised Learning

Unsupervised learning is a machine learning approach where the model is not provided with labeled data but instead tries to identify patterns or groupings in the data on its own. The video contrasts this with supervised learning by explaining how ANNs in unsupervised learning organize data based on inherent similarities, without predefined labels. This is often used for clustering tasks.

💡Multi-layer Neural Network

A multi-layer neural network refers to a network with multiple layers of neurons, typically including one or more hidden layers between the input and output layers. In the video, it is emphasized that these networks can solve more complex tasks compared to single-layer networks, as the additional layers allow for deeper processing and the handling of non-linear problems. An example of this architecture is given as one with multiple hidden layers between input and output nodes.

Highlights

Introduction to artificial neural networks and their biological counterparts in the human brain.

Explanation of the basic components of a biological neuron: dendrites, soma, and axon.

Dendrites receive information and act as input channels for the soma.

The soma processes information within the nucleus.

Axons transmit signals to other neurons through synapses.

Neurons interact with each other to make decisions.

Artificial neural networks mimic the structure and function of biological neural networks.

Input and output in artificial neural networks are analogous to dendrites and axons in biological neurons.

Activation functions play a crucial role in processing information within neurons.

The architecture of neural networks includes input layers, hidden layers, and output layers.

Single-layer networks directly connect input to output without hidden layers.

Multilayer networks have one or more hidden layers between input and output.

Competitive networks have neurons that compete with each other to be active.

Neural networks can learn from experience, similar to the human brain.

Supervised learning involves teaching the network to categorize inputs, while unsupervised learning lets the network discover patterns on its own.

Activation functions can be linear, threshold-based, or more complex like sigmoid or hyperbolic tangent.

Applications of neural networks include fingerprint recognition for attendance systems and face unlock features on smartphones.

Neural networks are also used for weather forecasting to predict rain and storms.

Transcripts

play00:00

Halo assalamualaikum warahmatullahi

play00:01

wabarakatuh Halo teman-teman kelas

play00:04

kecerdasan buatan kembali lagi dengan

play00:06

satu materi yang baru Yuk kita belajar

play00:09

bersama tentang jaringan saraf tiruan

play00:11

dan bahasan utama kita kali ini akan

play00:14

mengenal tentang konsep dasar jaringan

play00:16

syaraf tiruan atau dj's itu seperti apa

play00:19

ya kalau diumpamakan jaringan syaraf

play00:22

tiruan itu adalah berasosiasi dengan

play00:25

jaringan syaraf biologi gimana pada otak

play00:28

manusia kita memiliki jutaan sel saraf

play00:30

atau neuron yang memiliki tugas untuk

play00:32

memproses zat memproses informasi nah

play00:35

neuron itu berinteraksi satu sama lain

play00:38

untuk menghasilkan sebuah keputusan

play00:41

dengan kemampuan kerjanya yang luar

play00:45

biasa

play00:47

yang digambarkan pada struktur biologi

play00:50

model syaraf itu memiliki beberapa

play00:53

komponen utama pertama ada di indrid

play00:56

kemudian ada badan sel atau Soma serta

play00:58

Advan ya kalau dilihat pada penampang

play01:01

model biologis teman-teman bisa melihat

play01:03

kita punya the yang pertama ini memiliki

play01:06

tugas untuk menerima informasi atau

play01:09

sebagai jalur input bagi Soma atau badan

play01:12

sel ya badan sel ada di sebelah sini

play01:16

yang digambarkan ini nah badan sel ini

play01:19

dia memiliki satu buah bagian disebut

play01:21

dengan inti sel atau nukleus dimana

play01:24

pemrosesan atau pengolahan informasi itu

play01:26

terjadi di dalamnya dari situ kemudian

play01:29

akson itu akan mengirimkan impuls sinyal

play01:33

ke sel saraf yang lainnya atau dengan

play01:36

kata lain Aksan itu adalah jalur patut

play01:39

bagi sama untuk berinteraksi dengan sel

play01:41

saraf yang berada di tetangga mereka

play01:43

melalui sinapsis ini ya jadi dia

play01:47

kandungan dengan sel saraf atau neuron

play01:49

neuron yang berada di sekitar mereka Nah

play01:53

karena tadi disebutkan bahwa jaringan

play01:55

syaraf biologis itulah dasar dari

play01:57

jaringan syaraf tiruan Maka kalau

play01:59

dianalogikan bentuknya adalah seperti

play02:00

ini ada istilah input ya atau not yang

play02:04

di dalam dirinya saksikan itu dia

play02:07

Society ikan dengan badan sel atau Soma

play02:09

atau bisa juga input itu diajarkan

play02:11

dengan asosiasikan dengan dendrit dengan

play02:13

hujan buat itu adalah aksen serta

play02:15

sinopsis Ya beginilah minta kenal kok

play02:17

pada jaringan syaraf tiruan jadi ini

play02:20

hanya sebagai pengantar saja

play02:23

Hai Bagaimana jadinya syaraf tiruan itu

play02:25

bekerja Ia adalah meniru atau mengikuti

play02:30

Bagaimana cara kerja jaringan syaraf

play02:33

biologis pada otak manusia ya di dalam

play02:37

jaringan syaraf tiruan itu dia memiliki

play02:41

keterlibatan sebagai pemrosesan

play02:44

informasi yang terjadi pada neuron tadi

play02:46

disebutkan ya kemudian ada istilah yang

play02:51

disebut dengan fungsi aktivasi yang

play02:53

berhubungan dengan semua input

play02:56

didalamnya serta ada output yang nanti

play03:01

akan kita bahas dengan salah satunya

play03:04

disebut dengan ceh kul

play03:07

Set alarm pada jaringan syaraf tiruan

play03:09

model struktur penyusunnya boleh

play03:11

digambarkan dengan bentuk seperti ini

play03:13

ke-3 ada beberapa begini dalamnya kita

play03:16

ada mengenal fungsi ini kemudian

play03:18

digoreng fungsi aktivasi dan ini adalah

play03:20

bagian yang pernah dengan output proses

play03:22

ini akan kita hasilkan karena kita sudah

play03:25

memiliki input sebelumnya nah output ini

play03:29

nanti bisa dikirimkan ke neuron yang

play03:32

lainnya yang berada di tangganya atau

play03:34

neuron yang saling berhubungan satu sama

play03:36

lain jika digambarkan ke dalam bentuk

play03:38

yang lainnya ini adalah input di sebelah

play03:42

kiri yang dinyatakan dengan huruf x

play03:44

kemudian masing-masing simbol itu Ia

play03:46

memiliki website atau bobot kemudian ada

play03:50

fungsi tertentu sampai dengan dia

play03:51

menghasilkan output disini outputnya

play03:54

tidak harus selalu sama dengan jumlah

play03:56

input ya Bu remotenya 1/2 meskipun

play03:59

inputnya adalah puluhan ya ini adalah

play04:03

contoh model matematikanya jadi ada

play04:07

sebuah fungsi tertentu yang disebut

play04:09

dengan samping function disini ini ada

play04:12

juga fungsinya coba dengan fungsi

play04:14

aktivasi di proses sebelumnya melibatkan

play04:17

input dan juga memiliki berbuat untuk

play04:20

masing-masing input Jadi kalau ada 10

play04:23

input maka akan ada 10 bobot yang

play04:26

mempengaruhi hasil akhir output

play04:28

disebelah kanannya Nanti secara

play04:30

matematis digambarkan seperti ini ya

play04:32

nanti teman-teman bisa mempraktekkan ini

play04:33

sebagai sebuah contoh Bagaimana jaringan

play04:36

syaraf tiruan kita pelajari bersama ya

play04:40

Nah mengenal samping function ini kalau

play04:43

diumpamakan dia merupakan sebuah fungsi

play04:46

yang digunakan untuk mencari rata-rata

play04:48

bobot dari semua elemen inputnya secara

play04:51

sederhana merupakan Perkalian antara

play04:54

bobot atau with dengan inputnya atau X

play04:57

disini setelah ketemu makan dijumlahkan

play05:00

totalnya ada berapa Kalau ada 10 input

play05:02

maka 10 10 nya kan kita jumlahkan ya Nah

play05:05

dari samping function itu

play05:07

kemudian kita akan mengenal

play05:09

karakteristik jaringan syaraf tiruan

play05:12

Hai yang paling menonjol adalah jaringan

play05:15

syaraf tiruan itu dapat belajar dari

play05:17

pengalaman ya Jadi kalau kita bisa

play05:22

mengambil pengalaman atas sebuah

play05:25

peristiwa maka jaringan syaraf tiruan

play05:27

pun juga bisa melakukan hal yang sama

play05:29

misalkan suatu hari kita pernah melihat

play05:32

sebuah benda yang disebut dengan spidol

play05:33

maka ketika pada lain waktu kita melihat

play05:36

benda yang serupa dengan spidol kita

play05:39

sudah tidak perlu lagi memikirkan bahwa

play05:44

benda itu disebut dengan spidol tapi

play05:47

secara spontan kita sudah akan

play05:48

mengatakan Oh itu spidol ya maka

play05:51

jaringan syaraf tiruan juga memiliki

play05:52

analogi yang sama ya kita akan gunakan

play05:55

contoh nanti

play05:58

Hai beberapa hal yang menentukan

play06:00

karakteristik jaringan syaraf tiruan itu

play06:02

diantaranya adalah arsitektur jdnya

play06:04

kemudian ada bagian yang disebut dengan

play06:07

bobot ini yang ditentukan dengan proses

play06:10

pelatihan atau training nanti serta

play06:13

bagian yang disebut dengan fungsi

play06:14

aktivasi ya Nah arsitektur jaringan ini

play06:19

ya adalah sekumpulan dari jaringan Max

play06:23

kumpulan dari lapisan input kemudian ada

play06:26

juga lapisan output yang diantara lagu

play06:29

selingkuh dengan lapisan untuk itu bisa

play06:31

terdapat lapisan tersembunyi atau hidden

play06:34

layer bila ada nah diantara lapisan

play06:37

input dengan lapisan begitu mereka

play06:38

saling terhubung ya bisa terhubung

play06:40

langsung atau dijembatani oleh lapisan

play06:44

tersembunyi kita akan belajar arsitektur

play06:46

jaringan yang dikelompokkan menjadi tiga

play06:48

kelas besar yang pertama adalah jaringan

play06:51

dengan lapisan tunggal atau single

play06:52

warnet kemudian ada multi learned yang

play06:55

merupakan jaringan dengan lapisan banyak

play06:58

serta jaringan dengan lapisan kompetitif

play07:00

yang disebut dengan kompetitif net nah

play07:02

pada single layer net-nya Ia hanya

play07:05

memiliki satu lapisan dengan bobot yang

play07:08

terhubung jaringan ini menerima input

play07:12

kemudian secara langsung akan diproses

play07:15

menjadi output tanpa melewati lapisan

play07:18

tersembunyi sedangkan semua unit

play07:21

inputnya dihubungkan dengan unit output

play07:23

yang bersesuaian secara grafis gambar

play07:27

dari single ayat adalah seperti ini ya

play07:30

kita punya nilai input di bagian paling

play07:32

sebelah kiri kemudian nilai-nilai itu

play07:35

adalah bagian yang kita masukkan ke

play07:37

dalam layar pertama ada lapisan info

play07:39

disini kemudian diantara lapisan input

play07:41

ini ada lapisan output di sebelah ini

play07:44

disebelah kanannya yang dihubungkan oleh

play07:47

bobot pada matriks bobot diantara input

play07:51

dengan output nya jika sudah maka kita

play07:54

akan menghasilkan output nya yah nah

play07:56

diasumsikan bahwa a

play07:58

inputnya tadi ya termasuk dengan

play08:00

outputnya ini lapisan Itu adalah sebuah

play08:02

mikro serta bagian-bagiannya Takan

play08:05

dengan busur panah ini adalah

play08:06

sinopsisnya kembali lagi ke definisi

play08:08

model Syarah biologis tadi oke kalau

play08:13

senilai ngerti ya terhubung secara

play08:14

langsung antara bisa input dengan output

play08:16

dan dibatasi hanya dengan satu matriks

play08:19

bobot tidak demikian pada multilayer

play08:21

nett ya pada jaringan dengan lapisan

play08:25

banyak ini memiliki satu atau lebih

play08:28

lapisan yang terletak di antara input

play08:30

dan outputnya lapisan itu sebut sebagai

play08:32

lapisan tersembunyi ya jaringan ini

play08:35

memiliki kemampuan untuk menyelesaikan

play08:38

sebuah permasalahan yang lebih kompleks

play08:41

jadi pada lapisan tunggal tapi

play08:43

memerlukan proses pembelajaran yang

play08:45

lebih lumpur yang lebih rumit atau lebih

play08:47

kompleks lagi jika digambarkan pada

play08:50

sebuah bentuk maka jaringan syaraf

play08:53

tiruan untuk arsitektur multilayer

play08:55

netcool yang lebih adalah seperti ini

play08:57

diantara

play08:58

Faizah input dengan output nya teman

play09:00

melihat adanya sebuah lapisan

play09:01

tersembunyi ya di sini pun untuk

play09:05

menentukan jumlah neutronnya tidak harus

play09:08

sama dengan lima ini hanya sebagai

play09:10

bantuan visual secara mudah dan

play09:13

sederhana untuk memahamkan bawah

play09:15

ternyata arsitektur itu bisa dipahami

play09:18

dengan jumlah lapisan yang terlibat di

play09:20

dalamnya kalau hanya input dengan output

play09:22

saja Berarti dia adalah jaringan lapisan

play09:24

tunggal tapi kalau sudah Tersisih oleh

play09:26

satu sebisanya jaringan televisi

play09:30

tersembunyi Maka hasilnya itu disebut

play09:32

dengan multi-layered atau arsitektur

play09:34

dengan lapisan banyak-banyak contoh ini

play09:37

teman-teman melihat adanya satu lapisan

play09:39

tersembunyi saja yang membatasi atau

play09:42

menghubungkan antara lapisan kudengar

play09:44

lapisan output pada gambar ini

play09:47

teman-teman bisa menemukan adanya

play09:50

lapisan tersedia Jumlahnya ada dua jadi

play09:52

adalah pesan tersembunyi pertama di

play09:54

bawah sebelah kiri Ini dan adalah pesan

play09:56

tersembunyi yang kedua

play09:58

Hai ada di bagian sebelah kanan diantara

play10:01

lapisan-lapisan tersebut ada matriks

play10:03

bobot yang saling terhubung satu sama

play10:05

lain ini hanya gambaran saja bahwa

play10:08

bentuk dari akhir pun arsitektur

play10:11

jaringan itu cukup beragam ya sedangkan

play10:14

kategori yang ketiga adalah kompetitif

play10:16

nett ya jaringan dengan lapisan

play10:18

kompetitif yang pada setiap neuron nya

play10:22

itu bersaing satu sama lain untuk

play10:24

mendapatkan hak menjadi murni aktif

play10:27

nilai bobot yang dimiliki oleh setiap

play10:29

neuron itu besarannya adalah satu

play10:32

sedangkan neuron yang lainnya nilai

play10:35

obatnya berupa nilai acak dan biasanya

play10:37

negatif Yah nanti saya akan belajar lagi

play10:40

pada refreshing kita gunakan diantara

play10:44

beberapa hal yang harus dipelajari pada

play10:46

jaringan syaraf tiruan adalah paradigma

play10:49

pembelajaran secara garis besar kelompok

play10:52

pembelajaran pada jaringan syaraf tiruan

play10:54

itu ada dua kelas yang pertama adalah

play10:58

pembelajaran terawasi atau supervised

play11:00

learning Ya yang menjadi contoh pada

play11:03

sparepart learning ini adalah help

play11:04

kemudian ada perceptron dan juga ada

play11:07

backpropagation sedangkan kategori yang

play11:11

kedua adalah pembelajaran tidak terawasi

play11:14

atau and supervised learning Ya ada juga

play11:17

yang menyatakan belajar atraksi sebagai

play11:20

pembelajaran terbimbing dan pembelajaran

play11:22

tidak tebing untuk pembelajaran tidak

play11:24

terawasi istilahnya sama ya dan

play11:26

contoh-contohnya juga sama kalau pada

play11:29

pembuatan terawasi dan tidak terawasi

play11:30

itu adalah dua hal yang berbeda

play11:32

teman-teman bisa menggunakan energi

play11:34

sebagai berikut misalkan kalian punya

play11:36

tiga buah deh ya tiga buah yang

play11:39

masing-masing jumlahnya ada Banyak Ada

play11:42

jeruk ya Ada jeruk kemudian ada apel

play11:48

Hai dan ada jambu ya jadi teman-teman

play11:53

punya tiga buah-buah yang kategori ada

play11:59

jeruk apel serta jambu nah pada

play12:03

pembelajaran dengan apa Belajar antara

play12:05

wasih kita mengelompokkan buah yang

play12:09

sudah ada itu dari awal bq7 tahu Oh

play12:12

kalau bentuknya seperti inilah jeruk Oh

play12:15

kalau bentuknya adalah vertadella poloh

play12:16

kalau warnanya seperti ini adalah jambu

play12:18

jadi kita kediaman kategori tanya

play12:20

sehingga kalau nanti ada satu buah yang

play12:22

baru ya buah yang kita enggak tahu apa

play12:24

itu namanya 2x misalkan kita bisa

play12:28

mengatur ikan itu menjadi jeruk apel

play12:30

atau jambu secara otomatis ya jadi

play12:32

output-nya sudah diketahui sebelumnya

play12:34

sedangkan pada belajar yang tidak

play12:36

terawasi kita tidak mengeta gorikan

play12:39

jeruk apel dan jambu ini terlebih dahulu

play12:41

melainkan kita meminta jaringan syaraf

play12:44

tiruan itu sendiri untuk mengategorikan

play12:46

dengan mengenali mereka itu perca

play12:48

Jelaskan ciri-cirinya ya Jadi pada jst

play12:51

mereka akan mendefinisikan juga seperti

play12:54

ini atau seperti itu dan juga dengan

play12:56

seperti ini kita memberikan batasannya

play12:58

saja tanpa memberikan kelompok-kelompok

play12:59

yang diawali dengan label-label secara

play13:02

spesifik Ya paham Jadi kalau pada

play13:05

pembahasan telah pasti kita yang membuat

play13:07

kelompok-kelompok itu tapi kado pada

play13:09

kalau pada pembelajaran tidak terawasi

play13:11

kita tidak mengelompokkan nilai-nilai

play13:13

itu menjadi kelas-kelas yang sudah

play13:16

dibagi-bagi melainkan meminta lebih ST

play13:19

mengelompokkan benda-benda itu

play13:20

berdasarkan ciri-ciri yang merujuk pada

play13:23

jeruk apel atau jambu ya maka pada

play13:27

pembelajaran terawasi target outputnya

play13:30

itu diperlukan sehingga kalau ada benda

play13:35

yang baru Maka kita bisa memastikan noh

play13:37

benda itu masuk dalam Kelas A b c dan

play13:39

seterusnya ya sedangkan pada

play13:41

pembelajaran tidak terawasi atau Cukang

play13:44

fastening target output ini tidak

play13:46

diperlukan ya mereka

play13:48

pengennya untuk belajar sendiri ya nanti

play13:52

teman-teman bisa belajar lebih lanjut

play13:53

lagi nah selain arsitektur jaringan

play13:56

serta paradigma pembelajaran kita harus

play13:59

mengenal fungsi aktivasi yang tadi di

play14:01

awal sudah digambarkan pada model

play14:04

matematika fungsi aktivasi ini digunakan

play14:07

untuk menentukan keluaran sebuah n atau

play14:09

sel syaraf nah fungsi ini menggambarkan

play14:13

hubungan antara tingkat aktivasi

play14:15

internal yang tadi di awal kita sebut

play14:17

dengan smash infection yang bisa jadilah

play14:20

bisa saja bentuknya beraneka ragam boleh

play14:22

linier atau tidak linier nah yang masuk

play14:26

pada fungsi aktivasi diantaranya adalah

play14:28

test food hard limit Singo Edan

play14:30

identitas serta contoh-contoh yang

play14:31

lainnya untuk fungsi aktivasi atlet

play14:34

dancesport bentuknya seperti ini yang

play14:36

membedakan adalah nilai-nilai

play14:37

diantaranya Kemudian Anda buat sebatas

play14:40

yang mereka tidak selalu sama ini adalah

play14:42

nol sudah pasti untuk Kavling it tapi

play14:45

untuk fungsi threshold atau ambang batas

play14:47

dia nilainya

play14:48

ia selalu fix atau selalu sama dengan

play14:52

hak limitnya contoh fungsi aktivasi lagi

play14:55

itu adalah fungsi bipolar hard limit ya

play14:59

bipolar itu berarti nilainya adalah

play15:01

perlawanan satu dengan minus 1 ya

play15:03

nilai-nilainya adalah seperti ini kalau

play15:05

aksi dari penolakan satu kalau sama

play15:08

dengan nol adalah nol kalau kurang D1 =

play15:10

min 1 ya untuk gula bipolar seafood

play15:14

teman-teman bisa perhatikan sebelah

play15:16

kanan sendiri yang nyata dikenal kita

play15:17

gunakan nilai yang tidak sama dengan

play15:21

nilai padahal limitnya Ia menunjukkan

play15:23

angka tertentu Atau abang batas yang

play15:24

ditentukan menyesuaikan dengan inputnya

play15:27

agar inputnya sesuai dengan output atau

play15:29

target yang diinginkan fungsi aktivasi

play15:31

selanjutnya adalah fungsi linier dan

play15:33

fungsi simetrik saturated saturating

play15:35

linier dua-duanya ini sebetulnya masih

play15:38

satu rumpun tapi nilainya tidak sama

play15:40

misalkan Perhatikan bagian bawah layar

play15:42

ini ya Dan kita mengakhiri pembelajaran

play15:45

fungsi aktivasi dengan fungsi tweet yang

play15:48

tidak tahu berbeda diantara keduanya

play15:51

yang membedakan adalah kalau pada fungsi

play15:55

simbol yang akhirnya dalam biner yang

play15:57

didalamnya melibatkan nilai antara 0

play15:59

sampai dengan satu sedangkan yang kanan

play16:01

adalah polar yaitu memiliki nilai

play16:04

diantara rentang min 1 dan 1 nah fungsi

play16:09

aktivasi ini akan kita gunakan untuk

play16:11

mempelajari bagian jaringan syaraf

play16:13

tiruan Selanjutnya ya kemarin juga sudah

play16:15

banyak yang menjawab dengan benar

play16:17

tentang contoh aplikasi dengan jarak

play16:19

dengan cara firwan ada yang menyebutkan

play16:21

presensi menggunakan sidik jari ada yang

play16:24

melakukan Face Unlock menggunakan wajah

play16:28

pada smartphone Kalian ada juga yang

play16:30

menjawab untuk pemanfaatan jsc ini

play16:33

adalah pada peramalan cuaca Kapan

play16:35

terjadinya hujan kapan sebuah badai

play16:37

kemungkinan terjadi ya Nah kita ketemu

play16:40

di pembelajaran Selanjutnya ya terima

play16:41

kasih assalamualaikum warahmatullahi

play16:43

wabarokatuh

Rate This

5.0 / 5 (0 votes)

Related Tags
AI LearningNeural NetworksArtificial IntelligenceHuman BrainInformation ProcessingSupervised LearningActivation FunctionMachine LearningEducationComplex Systems