Gradient descent simple explanation|gradient descent machine learning|gradient descent algorithm

Unfold Data Science
19 May 202015:39

Summary

TLDRThe video discusses the concept of Gradient Descent, an algorithm essential for optimizing functions in machine learning, particularly for deep learning and neural networks. The speaker explains its mathematical foundations, focusing on minimizing functions by adjusting parameters. The video provides real-world examples to illustrate the process, making it easier for beginners to understand. The importance of learning rates, derivative calculations, and parameter optimization is highlighted. Additionally, viewers are encouraged to subscribe for more content on data science and related topics.

Takeaways

  • ЁЯдЦ Gradient Descent is an algorithm used to minimize a function by adjusting its parameters iteratively.
  • ЁЯУЙ It's essential to understand the mathematical principles behind Gradient Descent for deep learning and neural networks.
  • ЁЯза Gradient Descent starts with random values for parameters and moves step-by-step toward minimizing the cost function.
  • тЪЩя╕П Learning rate controls how aggressively or slowly the parameters are adjusted during the optimization process.
  • ЁЯУК The objective is to find the optimal values of the parameters that minimize the cost function effectively.
  • ЁЯФв For linear regression models, the cost function is typically defined as the summation of squared errors between predicted and actual values.
  • ЁЯУИ Using derivatives, Gradient Descent identifies the direction and magnitude in which to adjust parameters to reach the function's minimum.
  • ЁЯОп The function can have multiple parameters, making optimization complex, but the algorithm systematically works toward finding the best values.
  • тП│ It's crucial to choose an appropriate learning rate, as a high rate may cause overshooting, while a low rate may result in slow convergence.
  • ЁЯТб Subscribe to the channel for more videos and insights on machine learning and optimization techniques.

Q & A

  • What is gradient descent?

    -Gradient descent is an optimization algorithm used to minimize a function by iteratively adjusting parameters in the direction that reduces the error. It is commonly used in machine learning and deep learning models.

  • Why is gradient descent important for deep learning?

    -Gradient descent is essential for deep learning because it allows neural network models to optimize parameters like weights and biases, which helps in minimizing the cost function and improving the model's accuracy.

  • What is the significance of the learning rate in gradient descent?

    -The learning rate controls how aggressively or slowly the model updates its parameters. A high learning rate may lead to overshooting the optimal solution, while a low learning rate can slow down the training process.

  • What is a cost function in the context of linear regression?

    -The cost function in linear regression measures the error between predicted values and actual values. The objective of gradient descent is to minimize this cost function to achieve better predictions.

  • How does the model find the minimum of the cost function using gradient descent?

    -The model starts with random values for parameters and uses the gradient of the cost function to update them. It iteratively moves in the direction that reduces the cost function until it reaches a minimum.

  • What happens when the gradient of the cost function is positive or negative?

    -When the gradient is positive, the function is increasing, and the model adjusts the parameters to decrease the cost. When the gradient is negative, the function is decreasing, so the model moves the parameters in the opposite direction to minimize the cost.

  • What is the impact of multiple parameters in gradient descent?

    -With multiple parameters, gradient descent updates all parameters simultaneously based on their respective gradients. This helps in optimizing complex models with many features.

  • How does gradient descent handle functions with more than one parameter?

    -For functions with multiple parameters, gradient descent calculates the partial derivatives of the cost function with respect to each parameter and adjusts them accordingly in each iteration.

  • Why is the derivative important in gradient descent?

    -The derivative provides the direction and rate of change of the cost function. Gradient descent uses this information to determine how much and in which direction the parameters should be updated.

  • What role does the learning rate play in parameter optimization?

    -The learning rate controls how big the steps are when updating the parameters. It helps balance between converging too quickly, which might miss the optimal point, and too slowly, which might make the process inefficient.

Outlines

00:00

ЁЯдЦ Understanding Gradient Descent for Deep Learning

This paragraph introduces the concept of gradient descent, emphasizing its importance in deep learning and neural networks. The speaker mentions their personal challenges in learning the topic and assures viewers that this video will help simplify the understanding of gradient descent. The video is designed to save time and effort by breaking down the mathematics behind gradient descent. The speaker encourages viewers to subscribe to the channel for more content related to data science, algorithm optimization, and neural networks.

05:06

ЁЯза The Concept of Derivatives in Gradient Descent

The focus here is on explaining the role of derivatives in gradient descent. It discusses how derivatives help compute the necessary changes in parameters, particularly with respect to a function, to minimize errors in models. The speaker provides an example of how adjusting the value of a parameter affects the movement towards the optimal solution. The paragraph highlights the importance of understanding derivatives to reduce errors and optimize performance in various models.

10:08

ЁЯФв Cost Function and Optimization in Linear Regression

This paragraph delves into the concept of the cost function within the context of linear regression. It explains how the cost function measures the difference between predicted and actual values, and how the goal is to minimize this function to find the best parameters. The speaker mentions the need for a systematic approach to optimize parameters, starting with random values and refining them based on the computed cost function. The idea of learning rates and their impact on how quickly or slowly parameters are updated is also introduced.

15:11

ЁЯУ▒ Understanding Neural Network Functionality

The final paragraph briefly touches on the broader applications of gradient descent, particularly in neural networks. It invites viewers to continue learning by subscribing to the channel, where they can find additional content that explains how neural networks work, including their optimization and the role gradient descent plays in improving their accuracy. This section serves as a conclusion and a call to action for viewers to engage further with the content.

Mindmap

Keywords

ЁЯТбGradient Descent

Gradient Descent is an optimization algorithm used to minimize the cost function by iteratively moving towards the minimum value. It plays a key role in machine learning, particularly in training neural networks. The video refers to it as an important method for understanding deep learning models, highlighting its mathematical foundation and application in parameter optimization.

ЁЯТбCost Function

A cost function measures how well a model's predictions match the actual data. In the video, the cost function is discussed in the context of regression models, where minimizing the cost is the goal of Gradient Descent. It's crucial for finding the optimal parameters in models like linear regression.

ЁЯТбLearning Rate

The learning rate in Gradient Descent controls how big or small the step sizes are while updating the modelтАЩs parameters. In the script, the learning rate is referenced as a factor that determines how aggressively or slowly the optimization process moves towards the solution, affecting the overall performance of the algorithm.

ЁЯТбParameter Optimization

Parameter Optimization refers to adjusting the parameters in a model to minimize the cost function. The video discusses how Gradient Descent helps in optimizing these parameters, specifically in the context of deep learning and neural networks, and how it influences the performance of models like regression.

ЁЯТбNeural Networks

Neural Networks are computing systems inspired by the human brain, commonly used in deep learning to model complex patterns and relationships in data. The video highlights how Gradient Descent is essential in training these networks by minimizing the cost function through parameter adjustments.

ЁЯТбRegression Model

A regression model predicts a continuous outcome based on input variables. In the video, linear regression is discussed in relation to Gradient Descent, where the goal is to minimize the cost function by optimizing the parameters, providing a clear example of how the method is applied in machine learning.

ЁЯТбDerivatives

Derivatives represent the rate of change of a function with respect to a variable, and they are key in calculating the direction and magnitude of updates in Gradient Descent. The script mentions derivatives when explaining how to minimize the cost function, as they guide the optimization process by determining the slope of the function.

ЁЯТбMathematical Formula

The mathematical formula for Gradient Descent is integral to understanding how the algorithm works. The video describes the mathematical underpinnings of Gradient Descent, emphasizing the importance of formulas like those for updating parameters in optimization tasks.

ЁЯТбDeep Learning

Deep Learning is a subset of machine learning that uses neural networks with many layers to learn from large datasets. The video references it frequently, pointing out that Gradient Descent is a fundamental algorithm for training deep learning models, particularly for tasks like image and speech recognition.

ЁЯТбMinimization

Minimization refers to the process of finding the minimum value of a function, which in machine learning typically means reducing the error or cost function. In the video, the goal of Gradient Descent is to minimize the cost function, which is essential for improving the accuracy of models.

Highlights

Introduction to Gradient Descent algorithm and its importance in minimizing functions for deep learning and neural networks.

Explanation of how Gradient Descent works, with a focus on learning the mathematical concepts behind it.

Gradient Descent is described as a critical algorithm for parameter optimization in models, emphasizing its practical applications.

Discussion of the challenges in understanding Gradient Descent and its mathematics, especially for new learners.

Illustration of how Gradient Descent begins with random values and gradually moves towards the correct answer through optimization.

Highlighting the importance of understanding derivatives and their role in minimizing the cost function.

Explanation of how the learning rate affects the speed of convergence in Gradient Descent.

Mention of multiple parameters in a model and how Gradient Descent handles optimization when the cost function has many variables.

Gradient Descent's relevance is tied to its use in real-world applications like regression models and neural networks.

Description of the cost function and its summation of all errors in a regression model.

Clarification of the role of the learning rate in adjusting parameter values and finding the optimal solution.

The explanation of why slow or aggressive learning rates impact the model's performance.

Insight into how stopping criteria are used in Gradient Descent to decide when the model has converged.

Understanding that different functions require different optimization strategies and learning rates.

Importance of subscribing to the channel to continue learning about neural networks and other data science topics.

Transcripts

play00:00

рдХрд┐ рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ рдПрд▓реНрдЧреЛрд░рд┐рджрдо рдЯреЛ

play00:04

рдорд┐рдирд┐рдорд╛рдЗрдЬ рдереЗ рдлрдВрдХреНрд╢рди рдмрд╛рдп рдПрдХреНрдЯрд┐рд╡рд┐рд╕реНрдЯреНрд╕

play00:06

рдкреИрд░рд╛рдореАрдЯрд░ рджрд┐рд╕ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рджрд┐рд╕ рдПрдВрдб рдбреЗрдлрд┐рдиреЗрд╢рди

play00:11

рдЗрд╕ рд╡рдХреНрдд рдЖрдИ рд╡рд╛рд╕ рд╣реЗрд╡рд┐рдВрдЧ рд╡реЗрд░реА рдЯрдл рдЯрд╛рдЗрдо рд╡реНрд╣реЗрди

play00:15

рд╣реЗ рд╕реНрдЯрд╛рд░реНрдЯрдб рд▓рд░реНрдирд┐рдВрдЧ рдЗрдВрдбрд┐рдпрди рдбрд┐рд╕реЗрдВрдЯ рдлреЙрд░

play00:17

рдлрд░реНрд╕реНрдЯ рдЯрд╛рдЗрдо рдПрдВрдб рдПрд╢реНрдпреЛрд░реНрдб рдердо рдЖрдл

play00:19

рд╣реНрдпреВрдореИрдирд┐рдЯреА рд╣рд╕ рдмреАрди рдбрд┐рдлрд┐рдХрд▓реНрдЯ рдЯрд╛рдЗрдо

play00:21

рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ рдПрдВрдб

play00:23

рдореИрдердореЗрдЯрд┐рдХреНрд╕ рдмрд┐рд╣рд╛рдЗрдВрдб рдЖрдИ рдбреЛрдВрдЯ рд╕реА рдж рд╕реАрди рдСрд▓

play00:27

рдорд╛рдп рд╡реАрдбрд┐рдпреЛрд╕ рдмрдЯ рдЗрдл рдпреВ рд╡реЙрдЪ рдерд┐рд╕ рд╡реАрдбрд┐рдпреЛ рдПрдВрдб

play00:30

рдпреВ рд╡рд╛рдВрдЯ рдЯреВ рд╕реЗрдо рд▓реЛрдЯ рдЖрдл рдЯрд╛рдЗрдо рдПрдВрдб рдПрдлрд░реНрдЯ рдЗрди

play00:33

рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рдЗрд╕ рдкрд░реНрдЯрд┐рдХреБрд▓рд░ рдХрд╛рдВрдЯреЗрдХреНрдЯ рдЗрди

play00:36

рдерд┐рд╕ рдХреЙрдиреНрдЯреЗрдХреНрд╕реНрдЯ рдИ рд╡реЗрд░реА рд╡реЗрд░реА рдЗрдВрдкреЙрд░реНрдЯреЗрдВрдЯ

play00:38

рдлреЙрд░ рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдПрдВрдб рдиреНрдпреВрд░рд▓ рдиреЗрдЯрд╡рд░реНрдХ

play00:40

рдореЙрдбрд▓реНрд╕ рд╡реЗрд▓рдХрдо рдЯреВ рдлреЙрд░ рдбрд╛рдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдорд╛рдп рдиреЗрдо

play00:43

рдЗрдЬ рдЕрдорди рдПрдВрдб рдПрдорд┐рдиреЗрдВрдЯ рд╕рд╛рдЗрдВрдЯрд┐рд╕реНрдЯ рд▓реЗрдЯреЗрд╕реНрдЯ

play00:46

рдбрд┐рд╕реНрдХрд╢рди рд╡рд┐рдж рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдбрд┐рдВрдЧ рд╡реНрд╣рд╛рдЯ рдЗрдЬ

play00:49

рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ рдлреНрд░реЙрдо рдбрд┐рдкреНрд░реИрд╢рди рдЗрдбрд▓реА

play00:53

рдПрд▓реНрдЧреЛрд░рд┐рджрдо рдЪреИрдирд▓ рдХреЛ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдЬрд░реВрд░ рдХрд░реЗрдВ

play01:03

рдиреЙрдЯ рдЯреНрд░рд╛рдЗрдб рдЯреЛ рд░рд┐рдбреНрдпреВрд╕ рдереЗ рд░рд┐рдпрд▓ рд╡рд░реНрд▓реНрдб

play01:07

рдПрдЧреНрдЬрд╛рдВрдкрд▓ рд╡рд┐рдж рдпреЛрд░ рдлреНрд░реЗрдВрдбреНрд╕ рдПрдВрдб рдЯреБрдмреНрд░реЛ

play01:11

рдХрд┐ рдПрдВрдб рдЕрдЯреЗрдВрдбреЗрдб рдореИрдердореЗрдЯрд┐рдХреНрд╕ рдЯреЗрд╕реНрдЯ рдУрдХреЗ

play01:14

рдЗрдирд╡рд░реНрдЯрд░ рдореИрдердореЗрдЯрд┐рдХреНрд╕ рдЯреЗрд╕реНрдЯ рдПрдХрджрдо рдореИрдХреНрд╕рд┐рдордо

play01:17

рдорд╛рдлреА рдУрдХреЗ рдпреВ рдХрдо рдЯреВ рдореА рдПрдВрдб рдЕрдирд╛рдпрд╛рд╕ рдХреНрдпреЛрдВ рд╣реИ

play01:23

рдореИрдВ рдлреНрд░реЗрдВрдб рд╣рд╛рдЙ рдордЪ рдбрд┐рдб рдпреВ рдлреЙрд░рдЧреЗрдЯ рдпреВ рд╕реЗ

play01:27

рдЧреИрд╕ рдПрдВрдб рдЖрдИрдПрд╕ рд╕рдордерд┐рдВрдЧ рд▓рд╛рдЗрдХ 06 1947 рдЯреВ рдорд╛рдп

play01:34

рдЪреИрдирд▓ рдЗрдВрдЯреЗрд▓реАрдЬреЗрдВрдЯ рд╕реЗ 10 рд╕реЗ рдиреЙрдЯ рд▓реЗрд╕ рдерди 500

play01:45

рд╕реЗ 1000 рдХрдорд┐рдВрдЧ рдЯреЛ рд╕реНрдЯреВрдбреЗрдВрдЯреНрд╕ рдПрдЧреНрдЬреИрдХреНрдЯрд▓реА

play01:50

рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ рд╡рд░реНрдХреНрд╕ рдЗрдВрдЯрд░рдирд▓реА рдУрдХреЗ рдПрдВрдб

play01:55

рд╕реНрдЯрд╛рд░реНрдЯ рд╡рд┐рдж рд░реЗрдВрдбрдо рдмреЙрдпрдЬ рд╡рд┐рд▓ рд╕реНрд▓реЛрд▓реА рдореВрд╡реНрдб

play02:03

рдЯреЛ рдереЗ рд░рд╛рдЗрдЯ рдЖрдВрд╕рд░ рдФрд░ рдХрд░реЗрдХреНрдЯ рдЖрдВрд╕рд░ рдФрд░

play02:09

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдЯреЛ

play02:11

рдХрд┐ рдЗрди рдерд┐рд╕ рдлреЛрдЯреЛ рд╡рд╛рд╕ рд░реЙрдиреНрдЧ рд╕реБрдмрд╣ рд╕рдмреНрдЬреЗрдХреНрдЯрд┐рд╡

play02:16

550 рдПрдВрдЯреНрд░реАрдЬ 231 рдлреНрд░реЙрдо рдкреЙрд╡рд░реНрдЯреА рдПрдВрдб 233

play02:23

рджрд░реНрд╕ рдЕрд▓рд╕реЛ рдиреЙрдЯ рд░рд╛рдЗрдЯ рдЯреЛ рдПрдбрд┐рдЯ 532 3535

play02:31

рд╡рд┐рд▓реНрд╡-рд╡реГрдХреНрд╖ subscribe The Channel

play02:44

рдлреЙрд░реНрдореВрд▓рд╛ рдлреЙрд░ рдкреИрд░рд╛рдореАрдЯрд░ рдСрдкреНрдЯрд┐рдорд╛рдЗрдЬреЗрд╢рди рдПрдВрдб

play02:49

рдиреНрдпреВ рдиреНрдпреВ рдиреНрдпреВ рдиреНрдпреВ рдиреНрдпреВ рдиреНрдпреВ рдиреНрдпреВ рдУрд▓реНрдб

play02:58

рд╡реИрд▓реНрдпреВ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдУрд▓реНрдб рд╡реИрд▓реНрдпреВ -

play03:05

рдХреЛ рдЯрд┐рдкреНрд╕ рд╕рд╛рдЗрдВрд╕ рдЯрд┐рдкреНрд╕ рдЗрд╕ рд╡реЛрд▓реНрдЯреЗрдЬ рд▓рд╛рдЗрдЯрд┐рдВрдЧ

play03:09

10 - 5 рдкреНрд▓рд╕ рдЪреИрдирд▓ рд▓рд╛рдЗрдХ рдЗрдЯ рдкреЙрд╕рд┐рдмрд▓ рдЯреВ рд╣рд╛рдЙ

play03:13

рдордЪ рдпреВ рд╡рд╛рдВрдЯ рдЯреЛ рдореВрд╡ рдФрд░ рд╣рд╛рдЙ рдордЪ рдпреВ рд╡рд╛рдВрдЯ рдЯреЛ

play03:15

рд╕рд┐рдд рдЕрдЯ рд╕реНрдХреВрд▓ рдбрд┐рд╕реНрдЯреНрд░рд┐рдХреНрдЯ рд╕рд╛рдЗрдЬ рд╕рд╡реНрдп рдЗрдЬ

play03:20

рдСрд▓рд╡реЗрдЬ рдмреЗ рдЕрдкрдбреЗрдЯреЗрдб рд╡рд░реНрдЬрди рдСрдл рдж рдУрд▓реНрдб рд╡реИрд▓реНрдпреВ

play03:23

рдРрдбреЗрдб рдЕрдЧреЗрдВрд╕реНрдЯ рд╕рдордерд┐рдВрдЧ рдЗрди рдСрд▓ рдЗрдЯреНрд╕ рдЖрдЗрдЬ рдПрдВрдб

play03:27

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдж рд╡рд░реНрд▓реНрдб рдЖрдл рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ

play03:31

рдЗрди рдЯрд░реНрдореНрд╕ рдЖрдл рдореИрдердореЗрдЯрд┐рдХрд▓ рдлреЙрд░реНрдореВрд▓рд╛ рдЗрдЬ рдиреЙрдЯ

play03:35

рдПрд╕ рдореИрдердореЗрдЯрд┐рдХрд▓реА рдХрдВрдкреНрдпреВрдЯрд░ рд▓рд░реНрдирд┐рдВрдЧ рд░реЗрдЯ

play03:39

рдорд▓реНрдЯреАрдкреНрд▓рд╛рдпрдб рдмрд╛рдп рдУрдХреЗ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рджрд┐рд╕ рд╡реНрд╣рд╛рдЯ

play03:44

рдЗрдЬ рджрд┐рд╕ рд╡рд┐рд▓ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдб рдереЗ рдореИрдердореЗрдЯрд┐рдХрд▓

play03:48

рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдХреЛ рдкреИрд░рд╛рдореАрдЯрд░реНрд╕ рдлреЙрд░ рдж рдореЙрдбрд▓ рдСрдл рдж

play03:55

рдлрдВрдХреНрд╢рди рдСрдл рд╡рд┐рдб рдК

play04:01

рдФрд░ рдирд╛рдЗрди рдореЗрдВ рд▓рд╛рд╕реНрдЯ рд╡реАрдбрд┐рдпреЛ рдЕрд▓рд╕реЛ рдЖрдИрдПрд╕ рдЯреЗрдХрди

play04:04

рдЯреИрдЧ рдореЗрдВ рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдСрдлрд┐рд╕ рдкреНрдпреВрди рдлрдВрдХреНрд╢рди рд╕реЙрд▓рд┐рдб

play04:08

рд╕реАрдзреЗ рдлрдВрдХреНрд╢рди рдлрдВрдХреНрд╢рди рдЗрди рдЬреЗрдХреНрд╡реЗрд░реА рдлрдВрдХреНрд╢рди

play04:13

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдиреЛ рд╣рд╛рдЙ subscribe And

play04:19

subscribe The Amazing рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм

play04:28

рд╣реИ рдирд╛ рд╣реЛ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдСрдмреНрдЬреЗрдХреНрдЯрд┐рд╡ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдж

play04:31

рдбреЗрдлрд┐рдиреЗрд╢рди рдСрдл рдЧреНрд░реЗрдбрд┐рдпрдВрдЯ рдбрд┐рд╕реЗрдВрдЯ рдЗрд╕

play04:33

рдбрд┐рд╕реНрдлрдВрдХреНрд╢рди рдиреАрдбреНрд╕ рдЯреЛ рдмреЗ рдорд┐рдирд┐рдорд╛рдЗрдЬреНрдб рдХрд░реЗрдХреНрдЯ

play04:37

рдиреЛ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдж рдорд┐рдирд┐рдордо рд╡реЗрдЬреЗрд╕ рдлрдВрдХреНрд╢рди рдЯреЗрдХ

play04:39

рдерд┐рд╕ рдлрдВрдХреНрд╢рди рдХреИрди рдЯреЗрдХ рдорд┐рдирд┐рдордо рд╡реЗрдЬ рдЗрди рд╡рд┐рдЪ

play04:42

рдХрдореНрд╕ рдирд┐рдпрд░ рдЯреЛ рд╣реИрд╡ рдЯреВ рд╡реНрд╣рд┐рдЪ рдИрдпрд░ рдмреНрд╡реЙрдп

play04:47

рдбреВрдЗрдВрдЧ рд╕рдордерд┐рдВрдЧ рд▓реЗрдЯреЗрд╕реНрдЯ рдЯреЛ рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдб рд╡реНрд╣рд╛рдЯ

play04:49

рдЗрдЬ рджреИрдЯ рд╕рдордерд┐рдВрдЧ рдУрдХреЗ рд▓реЗрдЯреЗрд╕реНрдЯ рд╕реНрдЯреЗрдбрд┐рдпрдо рджреИрдЯ

play04:53

рдЗрдирд┐рд╢рд┐рдпрд▓реА рд░реЗрдВрдбрдо рдХреИрдлреЗ The Amazing рдЯреЗрд╕реНрдЯ

play04:57

рдПрдЧреНрдЬрд╛рдВрдкрд▓ 40 рдкреНрд░рддрд┐ рд▓реАрдЯрд░ рд╕реЗ рд╢реЗрдпрд░ рдПрдВрдб

play05:05

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдиреЙрдЯ рдлреНрд░реЙрдо рджрд┐рд╕ рдкреЙрдЗрдВрдЯ рдЯреВ рдбреВ рдбреВ

play05:11

рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рдбреВ рджрд┐рд╕ рдкреЙрдЗрдВрдЯ

play05:19

рдЕ рдмреЗрдЧрдо рдж рдХрд╛рдВрд╕реЗрдкреНрдЯ рдСрдл рд╕рдордерд┐рдВрдЧ рдХреЙрд▓реНрдб рдПрд╕

play05:22

рдбреЗрд░рд┐рд╡реЗрдЯрд┐рд╡ рд╕реЛрд╡реЗ рдХрдВрдкреНрдпреВрдЯрд░ рдбреЗрд░рд┐рд╡реЗрдЯрд┐рд╡ рдЖрдл

play05:26

рдШрд┐рд╕рдХрд░ рд╡рд┐рдж рд░рд┐рд╕реНрдкреЗрдХреНрдЯ рдЯреЛ рдПрдХреНрд╕реЗрд╕ рдкреЙрдЗрдВрдЯ рдиреЗрдо

play05:33

рд▓рд╛рд╕реНрдЯ рдиреЙрдЯ рд╡рд╛рдВрдЯ рдпреВ рдХреИрди рд╡реЙрдЪ рдереЗ рд╡реАрдбрд┐рдпреЛ

play05:37

рдлреНрд░реЙрдо рджрд┐рд╕ рдкреЙрдЗрдВрдЯ рдЗрдирдХреНрд░реАрд╕ рдж рд╡реИрд▓реНрдпреВ рдСрдл рдПрдХреНрд╕

play05:41

рдУрдХреЗ The Amazing рдбрд┐рдХреНрд░реАрдЬ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдХрд░реЗрдВ

play05:52

рдореВрд╡рдореЗрдВрдЯ рд▓рд╛рдЗрдХ рджрд┐рд╕ рдереИрдВрдХ рдпреВ

play05:56

рдХреЗ рдЕрдВрджрд░ рдХреЗ рд╢реБрдб рдмреА рдЯрд┐рдлрд┐рди рд╕реНрдЯрд╛рд░реНрдЯ рдлреНрд░реЙрдо

play05:59

рджрд┐рд╕ рдкреЙрдЗрдВрдЯ рдлреЙрд░ рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдлреНрд░реЙрдо рджрд┐рд╕ рдкреЙрдЗрдВрдЯ

play06:02

рд╡реНрд╡реЗ рдХрдВрдкреНрдпреВрдЯрд░ рджрд┐рд╕ рд▓реЛрдХ рд▓рд╛рдЗрдХ рджрд┐рд╕ рд╡рд┐рдж

play06:06

рд░рд┐рд╕реНрдкреЗрдХреНрдЯ рдЯреЛ рдЧреЗрдЯ рдЯреЛ рдиреЛ рдлреНрд░реЙрдо рджрд┐рд╕ рдкреЙрдЗрдВрдЯ

play06:10

рдлрд╛рдЗрд╡ рдЗрдирдХреНрд░реАрд╕ рдж рд╡реИрд▓реНрдпреВ рдСрдл рдж рд╡реИрд▓реНрдпреВ рдСрдл

play06:15

рдлрдВрдХреНрд╢рди рдЗрди рд╡рд┐рдЪ рд╕рдордерд┐рдВрдЧ рдЗрдЬ рдж рдореАрдирд┐рдВрдЧ рдСрдл рджрд┐рд╕

play06:23

рдкреЙрдЗрдВрдЯ рдЯреВ рджреИрдЯ рдЗрдЬ рдж рдЧрд╛рд░реНрдбрд┐рдпрди рдФрд░ рдЗрд╕ рд▓реБрдХ рдЕрдЯ

play06:28

рдерд┐рд╕ рдкреНрд╡рд╛рдЗрдВрдЯ рд╡рд┐рд▓ рдмреЗ рдкреЙрдЬрд┐рдЯрд┐рд╡ рдПрдВрдб рдиреЗрдЧреЗрдЯрд┐рд╡

play06:35

Video then subscribe to the Page if you

play06:42

liked The Video then subscribe to

play06:47

рдЬреЛ рднреА рдЗрд╕рдореЗрдВ рдРрдб рдХрд░ рджрд╢ рд▓рдЧреА рдкреЙрдЬрд┐рдЯрд┐рд╡ рдПрдВрдб

play06:50

рд╣реЗрдВрд╕ рдерд┐рд╕ рд╡рд┐рд▓ рдЧрд┐рд╡ рдкреЙрдЬрд┐рдЯрд┐рд╡ рдУрдХреЗ рдПрдВрдб рд╡реЗрдВрдЯ рдЯреЛ

play06:55

рдбрд┐рд╕рд╛рдЗрдб рдЯреЛ рд░рд┐рдореЗрдВрдмрд░ рдлреЙрд░ рдиреНрдпреВ рд╡реНрд╡реЗ рд▓рд╛рдЗрд╡ - 2

play07:06

- 110 рдиреЗрдЧреЗрдЯрд┐рд╡ рдиреНрдпреВ рдкреНрд▓рд╕ рдХреЛрд▓реНрдб рдФрд░ рдлреНрд▓реВ

play07:15

рдкреЙрдЬрд┐рдЯрд┐рд╡ рдпреВ рд╡рд┐рд▓ рд╣реЗрд▓реНрдк рдЗрди рдбрд┐рд╕рд╛рдЗрдбрд┐рдВрдЧ рд╡рд┐рдЪ

play07:25

рдбрд╛рдпрд░реЗрдХреНрд╢рди рдЯреВ рд░рд┐рдбреНрдпреВрд╕ рдФрд░ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм

play07:34

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рд╕рдордерд┐рдВрдЧ рдЗрди рдЯреВ-рдбреВ рд▓рд┐рд╕реНрдЯ

play07:43

рдХрд┐ рдПрдВрдб рдлреИрдХреНрд╕реЗрд╕ рдЬрд╕реНрдЯ рдПрдХреНрд╕ рд╕реНрдХреНрд╡рд╛рдпрд░ рдХрд░реЗрдХреНрдЯ

play07:48

рд╡рд░реНрдХ рдЗрди рд░рд┐рдпрд▓ рд▓рд╛рдЗрдл рдЗрди рдП рдбрд┐рд╕рд░реНрд╡рд┐рд╕ рдлрдВрдХреНрд╢рди

play07:51

рдХреИрди рд╣реИрд╡ рдореЛрд░ рдкреИрд░рд╛рдореАрдЯрд░реНрд╕ рдПрдВрдб рдХреИрди рдмреЗ рдЕрдореЗрдЬреНрдб

play07:54

рдПрдВрдб рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рд╡реНрд╣рд╛рдЯ рд╣реИрдкреЗрдВрд╕ рд╡реНрд╣реЗрди рд╡реЗ рд╣реИрд╡

play07:59

рдЕ рдлрдВрдХреНрд╢рди рд╡рд┐рдЪ рд╣рд╕ рдореЛрд░ рдерди рд╡рди рдкреИрд░рд╛рдореАрдЯрд░реНрд╕ рдЯреЛ

play08:03

рдСрдкреНрдЯрд┐рдорд╛рдЗрдЬ рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдж рдкреНрд░рд╛рдЗрд╕ рдЖрдл рд▓реЗрдЯреЗрд╕реНрдЯ

play08:08

рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдЖрдл рд░рд┐рдЧреНрд░реЗрд╢рди рдореЙрдбрд▓ рд░рд┐рдЧреНрд░реЗрд╢рди рдореЙрдбрд▓

play08:14

рд▓реБрдХреНрд╕ рд▓рд╛рдЗрдХ рдЗрди рдкреНрд▓реЗрдЯрдлреЙрд░реНрдо рдкреНрд▓реЗрди рд╡реИрдирд┐рд▓рд╛

play08:18

рдлреНрд░реЙрдо рджрд┐рд╕ рдЗрдЬ рд▓рд╛рдЗрдХ рдХрд░реЗрдВ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдХрд░реЗрдВ

play08:23

рд▓реЗрдЯреЗрд╕реНрдЯ рд╡реАрдбрд┐рдпреЛ рдХреЗ рд▓рд┐рдП рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдХрд░реЗрдВ

play08:29

рд╡рд┐рд▓ рдмреА рдП

play08:31

рддрд░рдл рдлрдВрдХреНрд╢рди рдСрдл рдПрдордПрдирд╕реА рдЗрди рдХрд░реЗрдХреНрдЯ рдмрдЯ рдЗрдЯреНрд╕

play08:35

рдирдерд┐рдВрдЧ рдмрдЯ рд╕рдореЗрд╢рди рдЖрдл рдСрд▓ рдпреЛрд░ рдПрдХреНрдЯрд┐рд╡рд┐рдЯреАрдЬ - -

play08:42

рдиреЗрдо рд╕реНрдиреЗрдХ рд╣рд╛рдЙрд╕ рдкреНрд▓рд╕ рд╕реА рдХрд╛ рд╣реЛрд▓ рд╕реНрдХреНрд╡рд╛рдпрд░

play08:49

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдЯреЛ

play08:51

рдХрд┐ рд╣рдо рд╕рднреА рд╣реЛрд▓ рд╕реНрдХреНрд╡рд╛рдпрд░ рд▓рд╛рдЗрдХ рджрд┐рд╕ рдЗрдЬ рдЗрдХреНрд╡рд▓

play08:55

рдЯреВ рд╡рди рдЯреВ рд╕реЛрд░реНрд╕реЗрд╕ рд╣реИрд╡ рдпреЛрд░ рдХреЙрд╕реНрдЯ рдлрдВрдХреНрд╢рди

play08:59

рд▓реБрдХреНрд╕ рд▓рд╛рдЗрдХ рдПрдВрдб рд░рд┐рдЧреНрд░реЗрд╢рди рдореЙрдбрд▓ рдиреЛ рд╡реНрд╣рд╛рдЯ рдЗрд╕

play09:02

рдж рдпреВрдЬрд╝ рдСрдл рдж рдпреВрдЬрд╝ рдСрдл рдбреЗрде рд╕реЗрдВрдЯреЗрдВрд╕ рдЯреЛ

play09:07

рдорд┐рдирд┐рдорд╛рдЗрдЬ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдореЛрдб рдСрдл рдж рдмреЗрд╕реНрдЯ рд╡реЗ

play09:11

рдкреЙрд╕рд┐рдмрд▓ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдХрд░реЗрдВ рд▓рд╛рдЗрдХ рдФрд░

play09:36

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм

play09:38

рдХреМрди-рдХреМрди рдЕрджрд░ рдПрдХреНрд╕реЗрд╕ рджреЗрд╡реА рдкреАрдПрдо рдПрдВрдб

play09:41

one-third рдПрдХреНрд╕рд┐рд╕рд┐рдмрд┐рд▓рд┐рдЯреА рдиреЛрдЯрд┐рдлрд┐рдХреЗрд╢рди рдиреАрдбреНрд╕

play09:44

рдЯреЛ рдмреЗ рдорд┐рдирд┐рдорд╛рдЗрдЬреНрдб рдлреЙрд░ рдж рдСрдкреНрдЯрд┐рдорд▓ рдмрд┐рд▓реАрдл рдПрдВрдб

play09:48

рд╕реА рд╣рд╛рдЙ рдЯреВ рдбреВ рдж рд╡реНрдпрдХреНрддрд┐ рд╕рдордп рдХреИрд▓рдХреБрд▓реЗрд╢рдВрд╕

play09:53

рдлреЙрд░ рдЗрдЬреА рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдб рдЗрдЯреНрд╕ рд╡реЗрд░реА рдЗрдЬреА рдЯреВ рд╡рд┐рдпрд░

play10:03

рдбреНрд░реЗрд╕реЗрд╕ рдЗрдирдЧреНрд░реЗрдбрд┐рдПрдВрдЯреНрд╕ рдлреЙрд░ рдж рдЗрдВрдЯрд░рдирд▓

play10:07

рдореИрдердореЗрдЯрд┐рдХреНрд╕ subscribe The Channel рдФрд░ рд╡реНрд╡реЗ

play10:25

рд╕реНрдЯрд╛рд░реНрдЯ рд╡рд┐рдж рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдЗрди рдП рд╕реНрдЯрд┐рд▓ рдлреНрд░реЙрдо

play10:30

130 рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм 2014

play10:38

рдХреЛрдЯ рдирд┐рдпрд░ рдЯреЛ рдлрд╛рдЗрдВрдб рд░рд╛рдЗрдЯ рдЗрди рд▓рд┐рдирд┐рдпрд░

play10:41

рд░рд┐рдЧреНрд░реЗрд╢рди рдореЙрдбрд▓ рд╡рд┐рдЬреНрдЮрдкреНрддрд┐ рдореЗрдВ рдЗрдЬ рдж рдХреЙрд╕реНрдЯ

play10:43

рдлрдВрдХреНрд╢рди рдПрдВрдб рд╡реЗрд▓рдХрдо рдЯреВ рдлрд╛рдЗрдВрдб рдж рдмреЗрд╕реНрдЯ рдПрдВрдб рд╕реА

play10:47

рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдж рдХреЙрд╕реНрдЯ рдлрдВрдХреНрд╢рди рдлреЙрд░ рд▓рд┐рдирд┐рдпрд░

play10:49

рд░рд┐рдЧреНрд░реЗрд╢рди рд╕рдореЗрд╢рди рдЖрдл рд╡рд╛рдЗрдЬ рдореИрди рдПрд╕реЗрдореЗрд╕ рдкреНрд▓рд╕

play10:52

рд╕реА рдХрд╛ рд╣реЛрд▓ рд╕реНрдХреНрд╡рд╛рдпрд░ рд╕реВрдЬреА рдФрд░ рдлрд░реНрд╕реНрдЯ рдбреЗрдЯ

play10:55

рдЕрдкреЙрдЗрдВрдЯ рдПрдВрдб рдПрдЯреАрдЯреНрдпреВрдЯрд╕ рдПрдВрдб рдбрд┐рдкреЙрдЬрд┐рдЯ рдУрдХреЗ

play10:58

рд╡рд┐рд╢реЗрд╖ рдирдерд┐рдВрдЧ рдмрдЯ рд╡реНрд╣рд╛рдп - рд╕рдлреЗрдж рдкреНрд▓рд╕ рд╕реА рдХрд╛

play11:03

рд╣реЛрд▓ рд╕реНрдХреНрд╡рд╛рдпрд░ рд▓реЗрдЧ рдиреБрд╡реНрд╡реБ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рджрд┐рд╕

play11:11

рдиреАрдбреНрд╕ рдЯреЛ рдмреЗ рдПрдмрд▓ рдЯреЛ рдлрд╛рдЗрдВрдб рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдж

play11:16

рдмреЗрд╕реНрдЯ рдХреЛрдВрдмрд┐рдиреЗрд╢рди рд╕реНрдЯрд╛рд░реНрдЯрд┐рдВрдЧ рдлреНрд░реЙрдо рджрд┐рд╕ рдЗрдЬ

play11:20

рдиреЙрдЯ рд╢реЛрдЗрдВрдЧ рдЗрди рдиреЗрдХреНрд╕реНрдЯ рд╡реАрдбрд┐рдпреЛ рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдЯреЛ

play11:27

рдХрдВрдкреНрдпреВрдЯ рд╕рдордерд┐рдВрдЧ рдЯреЛ рдиреЛ рдЗрди рд╡рд┐рдЪ рдИрдпрд░ рдлрд░реНрд╕реНрдЯ

play11:35

рдХрдВрдкреНрдпреВрдЯрд░ 100

play11:38

рдереЗ рд╡реЙрдЯрд░ рдЖрдл рдбрд╛рдпрди рдЯреВ рдЯреЗрдХ рджреА рдбреЗрд░рд┐рд╡реЗрдЯрд┐рд╡ рдЖрдл

play11:42

рд╕рд┐рд╕реНрдЯрдо рд╡рд┐рдж рд░рд┐рд╕реНрдкреЗрдХреНрдЯ рдЯреЛ рд╕реА рдЗрди рдбреВрдЗрдВрдЧ

play11:46

рдХреНрд▓рд┐рдпрд░ рд╡рд┐рдб рдбрд┐рд╕ рдЯреНрд░реЗрдХ рд╡рд┐рдж рд░рд┐рд╕реНрдкреЗрдХреНрдЯ рдЯреЛ рд╕реА

play11:50

рдЖрдИрдПрдл рд╡реЗ рдЧреЗрдЯ рдлреНрд░реЙрдо рджрд┐рд╕ рдЪреИрдирд▓ рдЖрдл рдбрд┐рдлрд░реЗрдВрд╕реЗрд╕

play11:53

рдЗрди рдереЗ рдбрд┐рд╕реНрдХрд╢рди рд▓рд╛рд╕реНрдЯ рд╡реАрдбрд┐рдпреЛ рдлреНрд░реЙрдо рджрд┐рд╕

play11:56

рдЪреИрдирд▓ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдПрдВрдб рдЗрдВрдЯрд░рдирд▓ рдбрд┐рдлрд░реЗрдВрд╕реЗрд╕ рд╡рд┐рдж

play12:03

рд╕рдмрд╕реНрдХреНрд░рд╛рдЗрдм рдирд╛рдЙ рд╣реЗ рдЧрд╛рдЗрд╕ рдкреНрд▓реАрдЬ рд╕рдмрд╕реНрдХреНрд░рд╛рдЗрдм

play12:11

рдЗрдВрдбрд┐рдпрди рд╡реИрд▓реНрдпреВрдЬ рдЕрд░реЗ рдЬрд╕реНрдЯ рд╕реА рд╡реНрд╣рд╛рдЯ рдЗрдЬ

play12:16

рдЧреЛрд▓реНрдб рдЪреИрдирд▓ рдХреЛ subscribe to subscribe The

play12:28

Amazing - 4a

play12:32

рд╣реИ рд╕реЛ рдард╛рдЯ рдпреВ рдЯреВ рдбреВ рдЖрдИ рдПрдо рдЯреВ рдЕрдкрдбреЗрдЯ рдорд╛рдп

play12:35

рдПрдХреНрдЬрд┐рд╕реНрдЯрд┐рдВрдЧ рд╕реА 100 рдорд╛рдп рдиреНрдпреВ рд╕реА рдиреНрдпреВрдЬрд╝

play12:39

рдкреЗрдкрд░ рдХреЛрд▓реНрдб рд╕реА рдУрд▓реНрдб рд╕реА - рд▓рд░реНрдирд┐рдВрдЧ рд░реЗрдЯ

play12:44

рдиреЛрд╡рд╛рд░реНрдЯрд┐рд╕ рд▓рд░реНрдирд┐рдВрдЧ рд░реЗрдЯреНрд╕ рд▓рд░реНрдирд┐рдВрдЧ рдЗрдЯ рдЗрдЬ

play12:47

рд╣рд╛рдЙ рдПрдЧреНрд░реЗрд╕рд┐рд╡рд▓реА рдФрд░ рд╣рд╛рдВ рд╕реНрд▓реЛрд▓реА рдИ рд╡рд╛рдВрдЯ рдЯреВ

play12:50

рдЪреЗрдВрдЬ рдФрд░ рд╕реНрдЯреЗрдк рдУрдХреЗ рдореАрдВрд╕ 5840 рдпреВ рд╡рд╛рдВрдЯ рдЯреЛ

play12:55

рдХрдо рдЯреЛ рдЕрддрд┐рд░рд┐рдХреНрдд рд▓реА рдФрд░ рдпреВ рд╡рд╛рдВрдЯ рдЯреВ рдЧреЛ рдЯреВ

play12:57

3937 рдЙрддреНрд╕рд╡ рд╣рд╛рдЙ рд╣рд╛рдЙ рдПрдЧреНрд░реЗрд╕рд┐рд╡ рдпреВ рдЖрд░ рдЗрди

play13:02

рдЯреЗрдХрд┐рдВрдЧ рдпреЛрд░ рдбрд┐рд╕реНрдЯрд┐рдХ рдкреНрд░реЗрд╕рд┐рдбреЗрдВрдЯ рдЧрд┐рд╡реНрд╕

play13:05

рд▓рд░реНрдирд┐рдВрдЧ рдЧреНрд░реЗрдЯ рд╕рдкреЛрд░реНрдЯ рд▓рд░реНрдирд┐рдВрдЧ рдбреНрд░реЗрд╕реЗрд╕ рдПрдВрдб

play13:10

рд╡реНрд╣рд╛рдЯ рдЗрдЬ рдиреЙрдЯ рдкрд░рдорд┐рдЯрд┐рдВрдЧ - 49 - рдкреВрд░реНрд╡реА

play13:13

рдорд▓реНрдЯреАрдкреНрд▓реЗрдпрд░ рдПрдВрдб рдиреНрдпреВ рд╡реИрд▓реНрдпреВ рдСрдл рд╕рд┐рд╡рд┐рд▓

play13:18

2004 рд╡реЗрд╕реНрдЯреЗрдб рд╡рд┐рдж рд╕реА0 рд╕реА0 рдЪрд╛рдкрд▓реВрд╕ рдХреЙрд╕реНрдЯ

play13:27

рдлрдВрдХреНрд╢рди рд╡рд┐рд▓ рдмреА

play13:29

рдХрд┐ рдбрд┐рдлрд░реЗрдВрд╕ рдХреНрд░рд┐рдПрдЯ рдП рд╕реНрдЯреИрдЧреНрдиреЗрдВрдЯ рдПрдо рдиреНрдпреВ

play13:33

рд╡реИрд▓реНрдпреВ рдЖрдл рдердо рд╡рд┐рд▓ рдХрдо рдЗрди рдерд┐рд╕ рдЯреНрд░реВ рд╡реИрд▓реНрдпреВ

play13:36

рд╕рд░реНрд╡реЗ рдПрдВрдб рдпреВ рд╡рд┐рд▓ рд╕реА рд╕реАрд░рд╡реА рд╕реАрд░рд╡реА рдПрдВрдб

play13:43

рд░рд┐рд╕рд░реНрдЪ рд╕реЗрдВрдЯрд░ рдкреНрд░реЗрд╕рд┐рдбреЗрдВрдЯ рд╡реНрдпрдХреНрддрд┐ рдорд┐рдирд┐рдордо

play13:48

рдХреЙрд╕реНрдЯ рдлрдВрдХреНрд╢рди рдиреЛ рдж рдЯрд╛рдЗрдо рд╡реНрд╣реЗрди рдж рд╡реИрд▓реНрдпреВ рдСрдл

play14:01

рдЯреНрд░реИрдХ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм 2013 рдкреНрд░реЗрд╕рд┐рдбреЗрдВрдЯ рд╡рд┐рд▓

play14:11

рдЕрдВрдбрд░рд╕реНрдЯреИрдВрдб рд╡реНрд╣рд╛рдп рдбрд┐рдб рдиреЙрдЯ рдордЪ рдЗрдВрдкреНрд░реВрд╡рдореЗрдВрдЯ

play14:14

рдЖрдл рдХреЙрд╕реНрдЯ рдЕрдЯ рдереЗ рдЯрд╛рдЗрдо рд╡рд┐рд▓ рд╕реНрдЯреЙрдк

play14:17

202 рдЗрдВрдкреЙрд░реНрдЯреЗрдВрдЯ рдореАрдЯрд┐рдВрдЧ CR рдЪреВрд╕рд┐рдВрдЧ рдмрд┐рд▓реНрдбрд┐рдВрдЧ

play14:22

рд░реЗрдбреНрдбреА рд╕реЗрдЯрд┐рдВрдЧ рдореЙрдо рд╣рд╛рдЙ рд╡рд┐рд▓ рдбрд┐рд╕рд╛рдЗрдб рд╡реЗрджрд░

play14:26

рд╡рд┐рдж рд╡рд┐рд╡рд┐рдб рдСрд▓рд╡реЗрдЬ рдмреА рдореЙрдбрд░реЗрдЯ рдж рдбрд┐рд╡рд╛рдЗрд╕ рдбреНрд░рд╛рдИ

play14:31

рд╣реЗрдпрд░ рд╕реНрдЯреБрдЕрд░реНрдЯ рд▓рд┐рдЯрд┐рд▓ рд╡реЙрдЯрд░ рдПрдВрдб рдЧрд┐рд╡ рдпреЛрд░

play14:34

рдбрд╛рдЯрд╛ рдЗрдЬ рдиреЙрдЯ рдЯреВ рдбреВ рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдлрд╛рд╕реНрдЯ рдлреЙрд░

play14:42

рдПрдЧреНрдЬрд╛рдВрдкрд▓ рдЖрдИрдПрдл рдлрдВрдХреНрд╢рди рдЖрдл рд▓рд┐рдирд┐рдпрд░ рд░рд┐рдЧреНрд░реЗрд╢рди

play14:49

рдбреВ рдж рдкреИрд░рд╛рдореАрдЯрд░ рдСрдкреНрдЯрд┐рдорд╛рдЗрдЬреЗрд╢рди рдЗрди 100 рд╡рд░реНрдбреНрд╕

play14:55

рдЯреЛ рдПрдХреНрд╕рдкреНрд▓реЗрди рдпреВ рдСрд▓ рдж рд╡реАрдбрд┐рдпреЛ рдЗрд╕ рд╡реАрдбрд┐рдпреЛ

play15:02

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдмрдЯрди рдХрдореЗрдВрдЯ рдлреЙрд░ рджрд┐рд╕ рд╡реАрдбрд┐рдпреЛ

play15:06

рд╕рдмреНрд╕рдХреНрд░рд╛рдЗрдм рдмрдЯрди рдЯреВ рдиреНрдпреВрд░рд▓ рдиреЗрдЯрд╡рд░реНрдХ

play15:10

рдкреНрд░реЙрдмреНрд▓рдо рд╣реИ

play15:17

рд╣реЗрд▓реЛ рдлрдВрдХреНрд╢рди рдореЗрдВ рд▓реМрдЯ рдбрд┐рд╡рд╛рдЗрд╕ рдЗрдВрд╡реЗрдЯрд╕ рдмрд╛рдп

play15:20

рд╕реЗрдВрдЯреНрд░рд▓ рджреЛрд╕реНрдд рд╡рд┐рд▓ рдПрдХреНрд╕рдкреНрд▓реЗрди рдпреВ рдСрд▓

play15:29

рд╕рдмрд╕реНрдХреНрд░рд╛рдЗрдм рдиреЗрдЯрд╡рд░реНрдХ рдЯреЛ рд╡реНрдпреВ рд╡реАрдбрд┐рдпреЛ рдХрдВрдЯреЗрдВрдЯ

play15:37

рдУрдВ

Rate This
тШЕ
тШЕ
тШЕ
тШЕ
тШЕ

5.0 / 5 (0 votes)

Related Tags
Gradient DescentData ScienceNeural NetworksOptimizationMathematicsMachine LearningDeep LearningLearning RateAI ModelsRegression