Logistic Regression Part 2 | Perceptron Trick Code
Summary
TLDRIn this YouTube tutorial, the presenter delves into logistic regression, following up on a previous discussion about the perceptron algorithm. They demonstrate converting the algorithm into code, using a dataset to illustrate the classification process. The video includes detailed explanations of data plotting, algorithm logic, and the interpretation of weights and intercepts. The presenter also addresses the limitations of the perceptron trick and compares it with logistic regression, highlighting the latter's symmetrical approach to classification and its potential for better generalization.
Takeaways
- 🧑🏫 The video is focused on teaching logistic regression and contrasts it with the Perceptron algorithm, which was covered in the previous video.
- 💻 The speaker has already written a code to implement the algorithm, and it is centered around classifying a dataset using logistic regression.
- 📊 A classification dataset was generated and visualized, with inputs consisting of two columns and outputs represented by two classes (0 and 1), color-coded as blue and green.
- 🛠️ A core function, called `scan`, was created to process the data, returning weights and intercepts after running the algorithm.
- 📝 The code involves adding a bias term to the input features, creating a weight matrix, and updating it iteratively using a loop for 1,000 iterations.
- 🎯 Logistic regression is demonstrated by selecting random samples from the dataset, calculating product values, and updating the weights based on classification results.
- 🔍 The video demonstrates how Perceptron updates weights based on misclassified points, while logistic regression continues improving the classification boundary until an optimal solution is found.
- 🚩 The speaker highlights the limitations of the Perceptron algorithm, particularly its inability to find the best line if the data is linearly separable.
- 🔄 An animation is shown in the video to demonstrate how the Perceptron algorithm adjusts the decision boundary as more misclassified points are identified.
- 💡 Logistic regression, unlike Perceptron, seeks a decision boundary that is symmetrically placed between the two classes, resulting in better generalization and less overfitting.
Q & A
What is the main topic discussed in the video?
-The video discusses logistic regression and how to implement the Perceptron algorithm in code, focusing on classifying data points.
What was covered in the previous video?
-The previous video covered the Perceptron Trick, which is a method used in machine learning for classification.
What is the dataset used in this video?
-The dataset is a two-dimensional classification dataset with input features represented by two columns and target values being either 1 or 0.
How are the data points visually represented in the plot?
-The data points are represented by different colors: green for class 1 and blue for class 0.
What is the function created in the video used for?
-The function, named `scan`, takes input data (X and Y) and returns the weights and intercepts needed for classification.
What does the algorithm do after generating weights?
-The algorithm selects a random data point and performs classification, updating the weights if the data point is misclassified.
How is misclassification handled in the Perceptron Trick?
-If a point is misclassified, the algorithm updates the weights to adjust the decision boundary until all points are correctly classified.
What is the key difference between Perceptron and Logistic Regression discussed?
-Perceptron stops updating the decision boundary once all points are correctly classified, while Logistic Regression continues optimizing to find the best model by minimizing error, leading to a more symmetric and generalized boundary.
What is the issue with the Perceptron Trick as discussed in the video?
-The Perceptron Trick might not find the best decision boundary because it only focuses on correctly classifying points, ignoring further optimization that could improve the model's generalization.
How does Logistic Regression improve over the Perceptron Trick?
-Logistic Regression continues to optimize the decision boundary even after points are classified correctly, ensuring better generalization and performance on new data.
Outlines
📘 Introduction to Logistic Regression
The speaker begins by welcoming viewers to their YouTube channel and introduces the topic of logistic regression, following up from a previous video on perceptron tracking. They mention planning to convert the algorithm into a code in the current video. The speaker has pre-written code to save time and explains the concept of data generation, comparing it to classification in cycles, similar to how gears function in a cycle. They created a dataset called 'solar', plotted it, and explained the two-dimensional dataset with inputs and a virus target, clarifying it's a classification problem. The explanation includes how the data is represented and the function used to calculate the weight and intercept.
🔍 Deep Dive into Algorithm Implementation
The speaker delves into the implementation of the algorithm, starting with a data set and explaining how it's processed through the algorithm. They discuss the course of action after running the course, using terms like 'first installment' and 'second call' to describe steps in the process. The explanation includes creating an edit with a specific shape, selecting random values, and storing numbers. The speaker also talks about picking students for a medical placement, using terms like 'white heads' and 'MP dot product' to describe calculations and decisions made within the algorithm. The paragraph concludes with a discussion on how the algorithm determines the placement of students based on certain conditions.
📊 Analyzing Performance and Adjustments
The speaker analyzes the performance of the algorithm, discussing the concept of a single tension and how it relates to the data. They mention extracting functions and using operations to determine placement. The paragraph includes a detailed explanation of the logic used to decide whether a placement will occur based on certain conditions. The speaker also talks about updating rates and learning from actual data, comparing the results of the algorithm to actual hospital placement data. They conclude by discussing the logic and process of refining the algorithm based on the results and the importance of understanding the animation of the process.
🌟 Conclusion and Future Recommendations
In the concluding paragraph, the speaker summarizes the key points discussed in the video, emphasizing the differences between perceptron trick and logistic regression. They highlight the importance of understanding the problems associated with the perceptron trick and how logistic regression can be a better model for certain types of data. The speaker encourages viewers to experiment with the concepts learned and to document their findings, promising to cover an extra approach to logistic regression in the next video. The paragraph ends with a thank you for watching and an encouragement to apply the knowledge gained.
Mindmap
Keywords
💡Logistic Regression
💡Perceptron
💡Algorithm
💡Classification
💡Dataset
💡Features
💡Weights
💡Loss Function
💡Gradient Descent
💡Binary Classification
💡Model
Highlights
Introduction to the YouTube channel and the topic of logistic regression being studied.
Discussion about the previous video's focus on the Perceptron algorithm and plans to convert it into code in this video.
Explanation of how to generate data for classification, similar to how a perceptron track is used in a cycle.
Presentation of a two-dimensional dataset with 61 data points, where the input has two columns and the target is for classification.
Description of the data representation, with green inputs indicating one class and blue indicating another.
Introduction of a function that takes input data and returns the weight and intercept for classification.
Explanation of the logic behind the algorithm, starting with initializing the weight and intercept.
Discussion on how the algorithm adjusts the weight and intercept based on the data points, aiming to minimize misclassification.
Illustration of the algorithm's process with a visual representation of how it learns and updates over time.
Mention of creating an edit to adjust the shape of the decision boundary to better classify the data.
Explanation of the weight vector and its role in determining the classification of data points.
Discussion on the selection of random values to update the weight and intercept, and the impact on the decision boundary.
Introduction of a method to classify values and identify which students are selected for a particular program.
Explanation of the logic used to determine placement based on the product of weights and features.
Demonstration of extracting a function to return a value based on the input number, which is used for classification.
Discussion on the update of rates in the code to improve the model's learning and classification accuracy.
Conclusion on the logic of the algorithm, which stops processing once all points are classified correctly.
Final thoughts on the limitations of the Perceptron trick and its comparison with logistic regression for better classification.
Transcripts
हेलो हाय गाइस वेलकम टू माय YouTube चैनल
हम लोग लॉजिस्टिक रिग्रेशन पढ़ रहे हैं
हमने लास्ट वीडियो में परसेप्ट्रॉन ट्रैक
के बारे में पढ़ा हम इस वीडियो में क्या
करने वाले हम उस पर एक को उस अल्गोरिदम को
एक कॉर्ड में कंवर्ट करेंगे एनिमल्स पे कि
कैसे काम करता हूं ठीक सो लेट्स स्टार्ट द
वीडियो इस कॉर्ड मैंने पहले से लिख रखा है
क्योंकि को थोड़ा बड़ा है और टाइप करने
में टाइम चला जाएगा सो आईएस योर बॉथरूम तो
सबसे पहले मैंने क्या किया मैंने एक डाटा
से जनरेट किया है ठीक है सब जैसे मेक
रिग्रेशन होता है साइकिल में वैसे ही मे
क्लासिफिकेशन होता है इसको यूज करके आप
क्लासिफिकेशन डाटा सेट्स बना सकते हो ठीक
है सूर्य डेटासेट मैंने बनाया और मैंने
इसको प्लॉट किया सोलर प्लांट करने के बाद
दिस इज द डाटा सेट स्विच डाटा सेट में
आपको दिखाई दे रहा होगा कि 61
two-dimensional डेटासेट मतलब इनपुट में
दे रहा टू कॉलम्स एक्सएक्सिस है और एक
वायरस पर और जो टारगेट
कि है वह 180 मतलब क्लासिफिकेशन प्रॉब्लम
है और जितना भी वन है उसको मैंने ग्रीन से
इनपुट किया है और जितना भी जीरो इसको
मैंने ब्लूटूथ सेटिंग को किया है ठीक है
तो यहां पर जो आउट प्रॉब्लम है वह कलर
रिप्रेजेंट कर रहा है ठीक है ना मैंने
यहां पर यह फंक्शन मनाया पर स्कैन बोलकर
जिसको अगर आप डाटा पास करोगे अपना एक्स और
वाई तो यह आपको पलट करके आपका वेट और आपका
इंटरसेप्टर आपको रिटर्न करेगा ठीक है इसका
लॉजिक एक डिस्कस कर लेते हैं तो मैंने
सबसे पहले क्या किया मुझे जो एक महिला
मैंने इस एक्स के आगे वन लगा दिया सो अगर
मैं आपको भी दिखा हूं इस पॉइंट पर यह
कोर्स चलाने के बाद कि आपका एक्स इस
समथिंग लाइक दिस ए
कि एक समथिंग लाइक दिस तो यह फर्स्ट
इंस्टॉलमेंट यह सेकंड कॉलम है और यह जो
पॉइंट है यह पॉइंट को लंबा है जिसमें 180
की वैल्यू है ठीक है मैंने यह कोर्स चलाया
सबसे पहले यह कोर्स चलाने से क्या हुआ कि
उस मेरा एक था जो कि अभी ऐसा दिखाओ
कि वह जैसा दिखने लग गया है
कि हर रोज के आगे एक बार लगा दिया यह बायर
सिस्टम के लिए हमने ऐसा किया ठीक है अगर
आपने फैमिली से इसे देखा होगा तो आपको समझ
में आ जाएगा अब आयल उड़ान नेक्स्ट हमने
क्या किया हमने वेट बोल करके एक एडिट
क्रिएट किया जिसका जो शेप है वह एक के
कॉलम के बराबर है मतलब अब आपने अभी आपका
एक्स का कॉलम कितना था तू जवान उदयभान
जैसी वन शर्ट किया एक और एक्स्ट्रा ऑइल ऐड
हो गया तो वे इसका शेप लिप्त हो गया फ्री
तो अगर आप इस लाइन पर delete करके मैं
आपको दिखा हूं तो एक मुल्क लाइक दिस यहां
पर एक्स्ट्रा क्षेत्र के बदले अगर मत डाल
दो तो मैंने बेसिकली एक वेट सेलिब्रेट
किया जिसमें तीनों आइटम्स शुरू में बने
ठीक है तो सबसे पहला जो आइटम यह इंटरसेप्ट
क्वालिटी में एग्जाम w9 है यह w1 है और यह
w2 है ठीक है फिर मैंने व्याख्या-1
रेटिंग स्लाइस किया पॉइंट वंश ओके यहां तक
कोई प्रॉब्लम नहीं है फिर मैंने लूप चलाया
थाउजेंड टाइम्स हमारा फैब्रिक पर हर्बल
उसके अंदर मैंने एक रेंडम वैल्यू सेलेक्ट
किया जीरो से लेकर हंड्रेड के बीच में
डाइनर वे मेरे एक शेप अगर आप देखो तो
डिटेल्स फंड कमर 2000 12 प्रॉब्लम्स इस
मैंने वही किया मैंने हर्बल उसके अंदर एक
रेंडम इंटीरियर सेलेक्ट किया बिटवीन 1000
लाइक्स थिस
है और भी नंबर आ रहा है उसको मैं धीमे
स्टोर कर रहा हूं ठीक है फिर मैंने क्या
किया इस बेसिकली कि हमने मतलब कि जाएगा
वैल्यू क्लासिफिकेशन कर रहे अवैध यू के
सिन्हा कर रहे हैं कि हम उन्हें ज़ में
कौन से स्टूडेंट को पिक कर रहे हैं अगर
431 आया तो फिफ्टी फर्स्ट स्टूडेंट को पिक
कर रहे चिकित्सक उसके बाद मैंने क्या किया
मैंने वाइट हेड्स प्रेरित किया मतलब उस
पर्टिकुलर स्टूडेंट का फॉर टीचर्स
स्टूडेंट्स का प्लेसमेंट होगा या नहीं
होगा का यह मुझे क्रेडिट करना था
चिकित्सकों ने कैसे किया यह काम मैंने
निकाला एमपी डॉट प्रोडक्ट ऑफ दिस सो अगर
मैं आपको यह करके दिखाओ तो यह कुछ ऐसा
दिखाई देगा सबसे पहले एक्स में मैंने 34
पॉइंट एलिमेंट को निकाला और रेड्डी मिला
है वह है 151 ठीक है और यहां पर x41 में
अच्छी तो इस पॉइंट पर सिर्फ दो ही आइटम्स
मतलब अ
मैं सिर्फ दो ही आइटम सेक्टर-41 में इसमें
आगे व नगर में लगाना होगा तो हमें यह नोट
देखना पड़ेगा अलग से एमपी रोड इन सर
एक्सपोर्ट तो 15909 मक्सिको स्वप्न है
में आ एक्सर्साइज नहीं कि सिंगल टेंशन है
या सुबह पिछली रात दम x41 अगर मैं यह चीज
वालों को
टॉप किया और है डोंट हो रहे हैं और यह
मुझे आंसर मिल रहा है पॉइंट टू 9 सुनो
मेरा पति फिर स्टूडेंट है उसके लिए जब मैं
ऐड कर रहा हूं तो यह दो प्रोडक्ट पॉजिटिव
आ रहे हैं ठीक है अब मुझे पता करना इसका
प्लेसमेंट होगा कि नहीं होगा अब अगर लॉजिक
पता होगा तो हमारा लॉजिक किया था अगर यह
दो प्रोडक्ट काव्य उस ग्रेटर थन ही कोई टू
जीरो तो प्लेसमेंट होगा और लें इसे मगर जो
है तो प्लेसमेंट नहीं होगा तो मैंने
एक्सट्रेक्ट फंक्शन मना लिया जब फंक्शन को
आप एक नंबर देते हुए इनपुट में वह वन
रिटर्न करता है अगर वह नंबर जीरो से
ज्यादा है अदरवाइज जीरो रिटर्न करता है तो
अगर मैं सेल को और चला लूं तो अगर मैं
लिखूं टैप 0.2 9021 आ रहा हूं ठीक है और
यह घर में - 20 है सुबह क्या कि देश में
फॉर टीचर्स स्टूडेंट्स हफम ने उसका ऑपरेशन
किया कि उसका प्लेसमेंट होगा या नहीं होगा
ठीक है फिर हमने ग्रेट अपडेट
अपने का कोड लिखा रेट्स अपडेट करने का कोड
क्या था वेस्ट इज इक्वल टू मेक इट्स प्लस
लर्निंग रेट टाइम्स वाइज हमने एक्चुअल
डाटा में एपिसोड में फोर्टिस हॉस्पिटल का
प्लेसमेंट हुआ या नहीं हुआ आखिरी नहीं हुआ
तो यहां पर इस काम के बदले जीरो आ गया
यहां पर वाइट के बदले वरना आ गया सूजी
पूरा टर्म - हो गया और फिर आपने एक जैसे
दोबारा मल्टीप्लाई करके सुब्स्क्रिब और यह
मैं वहां पर लिखा था शैंपू से यहां पर लगा
दिया और ऐसा हमने थाउजेंड टाइम्स किया और
था उस टाइम करने के बाद मैंने बीड्स
क्लासेज इन intersect वाला टाइम रिटर्न
किया और आगे का सारा टर्म एंड कंडीशन
रिटर्न की है एंड सॉ ए कोड बस यह लॉजिक है
ठीक है इसको मैं 18 इसको बेटा अरोड़ा और
यहां पर मैंने फंक्शन को कॉल किया एक्स और
वाई पास किया उसने मुझे पलट के इन थेसे
ट्वेल्व दिया और कोई फीस इंप्रेस लुधियाना
और यह वह इंटरसेप्टर कॉपी शिमला उस यह
मेरा डबल है यह मेरा डब्लू है
है और यह मेरा डब्लू डॉट है ठीक है यह
मेरा इंटरसेप्ट है ठीक है अब मैं रह गया
मुझे प्लाट करके आपको दिखाना था तो मैंने
इनसे MB निकाल लिया MB कैसे निकाला बहुत
ही सिंपल एपलेट विशु है
तो 100MB निकाला बहुत सिंपल है अगर आपके
पास एक प्लस बी स्क्वायर प्लस सीट 120 का
ए बी और सी वैल्यू है तो आप इस लाइन को
वायर्स इक्वल टू एक्स प्लस बी के फॉर्म
में बहुत इजीली ला सकते हो यहां पर एम
काव्य होगा माइनर एबीसीडी
है और सीता वाली होगा - सी वाइब P1
में चिकन सूप मैंने क्या किया मैंने यही
किया एवं निकालने के लिए एक है
इंस्टिट्यूट ऑफ़ सेंट ओं
है मतलब प्रोफिशिएंट के अंदर तेरा 210 तो
एक है फर्स्ट वाला टर्म और B.Ed सेकंड
वाला टाइम फॉर इंटर्नशिप के अंदर एक सिंगल
टॉम है तो सी क्या है यह वाला टाइम और बीच
है फिर से सेकंड वाला टाइम तो मैंने
इग्नोर एक्चुअली यही काम यहां पर किया
मैंने निकाल लिया और फर्स्ट क्लास जीरो
डिवाइडेड बाय ऑफिशल्स का वध और बी के लिए
मैंने सैम काम किया इंटरसेप्टेड बाय ऑफिशल
पावर फॉर मोर भी मिलने के बाद मैंने उस
लाइन को प्लॉट किया और यह तो गाइस यह वो
लाइन से यह मेरा बेटा था और यह आपको लाइन
जो हमने अभी बनाया यूजिंग परसेप्ट्रॉन
ट्रैक ठीक है अब मैंने इक्वल काम किया
मैंने एनिमेशन ड्रा किया इस प्रेम चीज का
सुधरता एनिमेशन ठीक है एक बार स्टार्टिंग
से देखते हैं देखो अभी पहला पॉइंट देखो कई
बॉक्स में आपका लाइन लोग नहीं करेगा जो
मूर्ख नहीं करेगा क्योंकि उसी कॉर्ड में
जो पॉइंट्स कलेक्ट हुआ है वह पॉइंट अगर
एलाइंस
बोल रहा मुझे कोई प्रॉब्लम नहीं है तो
लास्ट वाली लाइन भूख नहीं करेंगे कोई लाइव
नहीं कर रही है बट यूज कोई ऐसा पॉइंट
मिलेगा जो मिस क्लासिफाइड है वह उसको अपनी
तरफ पुल आएगा और फिर लाइन मुक्त करेगी तो
यहां पर मैंने वस्तु उन्हें रोक लिया है
धुंधली 212 मेरा काम हो गया बट डिफरेंट
सांप के डाटा के ऊपर डिपेंड करता है तो यह
किसी कभी-कभी बीच में भूख नहीं कर रही है
लाइन क्योंकि अभी जो भी पॉइंट से लेफ्ट हो
रहे हैं वह सही से क्लासिफाइड है तो वह
लाइन को रिमूव करने को नहीं बोल रहे हैं
ठीक है बट कभी-कभी ऐसा पॉइंट मिल रहा है
उसको ब्लॉक करने को बोल रहा है ठीक है तो
डांटेगा सेंटा सेटिंग वॉइस आफ क्राइम लाइन
से स्टार्ट कर रहे हो फिर आप रैंडमली
पॉइंट सेलेक्ट करो अगर वह पॉइंट मिस
क्लासिफाइड है तो हौसला इनको चेंज कर रही
है अगर पॉइंट सही से फेस्टिवल है तो उस
लाइन को चेंज नहीं कर रही है दैट इज भाई
कुछ ही बॉक्स में अवश्य लाइन बिल्कुल वैसे
का वैसा ही बैठा हुआ ठीक है थैंक यू कैन
सी यह बहुत इंपोर्टेंट है यह जो एनिमेशन
है यह नोट बुक आपके साथ शेयर कर दूंगा
डिस्क्रप्शन में एक बार आप इस एनिमेशन को
बैठकर के तसल्ली से थोड़ा देख लेना ठीक है
तो आप का कांसेप्ट लास्ट वीडियो में जो
आपने पढ़ा गोइंग
ए क्लियर हो जाएगा ठीक है अब सब कुछ ठीक
है मतलब सोचकर जो आपको जो लाइन मिल रहा है
वह इसे कैसे फ्राई कर रहे हैं सोच करें जो
आपका यह लाइन है यह सिर्फ और सिर्फ कर रहे
हैं इसके सारे ग्रीन पॉइंट्स लाइन की तरफ
है बहुत सारे पॉइंट्स लाइन की दूसरी तरफ
है ऐड में यह तो कर रहा था हमें
क्लासिफिकेशन ऐसी तो परफॉर्म करना था पर
मैंने आपको बोला कि लॉजिस्टिक रिग्रेशन जो
होता है वह थोड़ा अलग ढंग से काम करता है
परसेप्ट्रॉन करें कि सिंपल तरीका है यह
काम करने का बट आप चल सके टर्न ओन के अंदर
जो इंप्लिमेंटेशन है वह थोड़ा सा और
डिफरेंट है थोड़ा सा और एडवांस और थोड़ा
सा और अच्छा है अच्छा है मतलब इस पोस्ट
में कुछ प्रॉब्लम होनी चाहिए अब हम वही
डिस्कस करेंगे कि परसेप्ट्रॉन ट्रिक ऑल दो
काम करता है इसकी प्रॉब्लम क्या है ठीक है
और फिर हम उसको सॉल्व करेंगे एक अच्छे
तरीके से ठीक है सो मैं आपको दिखा देता
हूं कि इसमें क्या गड़बड़ है तुम्हें क्या
प्लान किया कि मैंने एक्चुअल
कि साइकिल वाले क्लास टो इंप्लीमेंट किया
एक ग्लास को बुलाया और अपना डाटा फिट कर
आया और उससे जो मुझे MB मिला उसको मैंने
प्लेट किया और उसको मेरे जैसी प्लॉट किया
यह तो गाइस रेड वाला लाइन हमारा
परसेप्ट्रॉन ट्रिक छाया और ब्लैक वाला
लाइन लॉजिस्टिक रिग्रेशन जो ऑफिशियल साइट
लंका लॉजिस्टिक रिग्रेशन है उससे आया
दोनों लाइंस में डिफरेंस है इसका मतलब कुछ
तो अलग कर रहे साइड वाला लाइन फट क्या वह
हमसे अच्छा है इस पॉइंट को इंप्रूव नहीं
कर सकते बट मैं एक चीज दिखा सकूं आपको
जिससे आपको समझ में आ जाएगा कि साइटेड
लैंड ओं वाली चीज हमारे परसेप्ट्रॉन ट्रिक
से बैटर है कैसे लेकिन इस हुए हम मैं क्या
करूं मैं डेट ऑफ बर्थ चेंज करो तो यहां पर
अगर आप देखो तो एक पैरामीटर होता है क्लास
ई कोल्ड 10th क्लास चैप्टर इक्वल टू टैंक
दोनों क्लास के बीच में मार्जिन कितना
होगा या आप अपने हिसाब से चेंज कर सकते हो
तो अभी मैरिटाइम रखा है मैं इसको 21वें और
देखना तो एंट्री कर दी क्या
कि यह क्लास थोड़े और दूर चले गए सी
डिफरेंस आ गया क्लासेस दूर हो गए चिक अब
नीचे अपॉइंटमेंट और सारा प्रॉसेस रिपीट
करता तो मैंने फिर से पर 57 वाला को ड्रम
किया फिर से स्टेप फंक्शन रंग की आ फिर से
अपने अल्गोरिदम को रन किया फिर से नया
रिजल्ट आया फिर से मोरबी कैलकुलेट किया
फिर से एक्शन फूड वाइट कैलकुलेट करके
मैंने अपना ग्राफ प्लॉटर किया और यह तो
गाइस जैसे माइनक्राफ्ट यहां पर आ रहा है
ठीक है अब मैं थोड़ा नीचे जाता हूं और सेम
काम रिपीट करूंगा मैं विथ लॉजिस्टिक
रिग्रेशन नए डाटा सेट किए ऊपर और यह होगा
इस दिस इज डिफरेंस दिस इज द डिफरेंस ऑफ
कि हमारा परसेप्ट्रॉन रूल का लॉजिक गया था
कि जैसे ही सारे पॉइंट्स सही से क्लासिफाई
हो जाएंगे हमारा परसेप्ट्रॉन रोल वहीं पर
रुक जाएगा अब एक और अपडेट जैसे ही उसने
सारे लाइन सारे पॉइंट्स को सही से काफी
ट्राय किया तो यहीं पर रुक गया बट
लॉजिस्टिक रिग्रेशन वाला क्लास यहीं पर
नहीं रुका उसने और इंप्रूव कि आपने आपको
और वहां जाकर रूका जहां पर एक्ट्रेस को
रोकना चाहिए था अगर आप डाटा को देखो और
अगर आप से भी पूछे कि दो मॉडल्स राइट वाला
मॉडल और ब्लैक वाला मॉडल कौन सा मॉडल बैटर
है अगर आपसे क्वेश्चन पूछा तो आप खुद
बोलोगे कि ब्लैक वाला मॉडल बैटर है
क्योंकि यह लार द सिमिट्रिकली बेटा को
काटना है मतलब दोनों साइड में इक्वल
मार्जिन है तो जब नया टेस्ट डेटा आएगा तो
उस पर इस ब्लैक लाइन का हेयर कम होगा
ग्रीन वाला लाइन क्या है सॉरी फ्रेंड वाला
लाइक क्या प्रॉब्लम है कि वह ग्रीन वाले
पॉइंट के बहुत पास में अगर मैं आपको इस
पॉइंट और अच्छे से देखा पाहवा विल डू इस
है
में का जश्न शुरू क्लासिफिकेशन को और
बढ़ाते हैं फटी करते हैं Galaxy S8 दिखाई
देता है पता नहीं और ज्यादा बढ़ गया है
लपसी देखते हैं फिर से मैंने सब कुछ को
रंग किया कुछ को फिर से बंद किया या
स्टेट्स और अभी देखो यह ग्रीन के बस पास
आकर रुक गया है और अब जानते हैं तो वर्ड्स
लॉजिस्टिक रिग्रेशन
[संगीत]
ए टेंडेंसी इन दोनों मॉडल्स में बहुत
ज्यादा डिफरेंस है तो लॉजिस्टिक रिग्रेशन
वाला जो मॉडल है वह आपके डेटा को बहुत
सिमिट्रिकली काट रहे हैं मतलब मतलब बराबर
मार्जिन देर है दोनों साइड एक गैप है ठीक
है वैसा आपका जो रेड वाला है वह बस मतलब
काम चला रहे हैं मतलब जैसे इसका काम खत्म
हो उसके बाद वह एक ट्राय होने लगा रहा है
सोचने में की कहना इंप्रूव वॉल्यूम रुख
नहीं कर रहे हैं क्योंकि हमारा लॉजिक बस
इस चीज में बेस है कि आपको तभी तक काम
करना है जब तक देर और मिक्स क्लासिफाइड
पॉइंट्स जैसे ही बस क्लासिफाइड पॉइंट खत्म
आपका एल्गोरिदम रुक जाएगा एंड वाइब्रेंट
वाला एल्गोरिदम वहीं पर आकर रुक गया बट
लॉजिस्टिक रिग्रेशन वाला एल्गोरिदम एक
तमेश्वर कर रहा है कि आप बेस्ट मॉडल अचीव
कर पाओ ठीक है तो इज द मेन प्रॉब्लम
परसेप्ट्रॉन में प्रेसिडेंट टैक्स लगाने
का मेन प्रॉब्लम यही है कि आपको बेस्ट
लाइन नहीं मिलता है मैं इग्नोर करके आपको
दिखा दे तो कि
कि आपका लाइन मॉडल जो भी बोलो आप वह और
अच्छा हो सकता है बट परसेप्ट्रॉन ट्रिक उस
बात का खयाल नहीं रखेगा तो अगर आपके पास
यह पॉइंट शहद और आपके पास यह पॉइंट है तो
हो सकता है कि आपका परसेप्ट्रॉन ट्रिक ऐसे
जा करके रुक जाए क्योंकि उसने जैसे ही
अवॉइड किए सारे मिस क्लासिफाइड पॉइंट्स
वहां पर जाकर रुक जाएगा व्हेयर आईएस
लॉजिस्टिक रिग्रेशन बिल ट्राइड टो फाइंड
इवन बेटर मॉडल इन थिस ब्वॉय आप लॉजिस्टिक
रिग्रेशन वाली चीज को यूज करते हो पर
शत्रुओं स्कूल नहीं है इसमें एक बहुत बड़ा
मेजर स्लो है कि ट्रेनिंग डाटा पर भले ही
आप अपना एड्रेस मिनीमाइज़ कर लोगे बट हो
सकता है टेलर ज्यादा आ जाए मतलब
जनरलाइजेशन एयर उतना अच्छा नहीं आए और
आपका व फिटिंग का चांद हो जाता है विद थिस
व्हाय यू डोंट यूज परसेप्ट्रॉन टेक यू
बड़ा होने पर परसेप्ट्रॉन ट्रिक बिकॉज़
अगर आपको परसेप्ट्रॉन ट्रिक समझ में आ गया
और उसमें क्या
प्रॉब्लम है समझ में आ गया तो फिर आप अ
एक्चुली सोच सकते हो उस प्रॉब्लम को कैसे
फोल्ड करना है और एक बार जब जैसे हम समझ
जाएंगे इस प्रॉब्लम कैसे सॉल्व करना है तो
हम समझ जाएंगे कि लॉजिस्टिक रिग्रेशन कैसे
काम करता है ठीक है तो आज की वीडियो में
इतना ही आई वह आप कोई पूरी चीज समझ में आए
मैं आपको रेकमेंड करूंगा कि इस नोट बुक को
उठाकर के थोड़े से एक्सपेरिमेंट करो कहीं
पर डोकोमेंट करो कि मैंने यह सीखा और फिर
हम लोग नेक्स्ट वीडियो स्टार्ट करते हैं
लॉजिस्टिक रिग्रेशन का जो एक्स्ट्रा ऑइल
अप्रोच है वह पढ़ना टैग्ड सोया डक्ट
थैंक्स वाचिंग माय
تصفح المزيد من مقاطع الفيديو ذات الصلة
Machine Learning Tutorial Python - 8 Logistic Regression (Multiclass Classification)
Machine Learning Tutorial Python - 8: Logistic Regression (Binary Classification)
Deep Learning(CS7015): Lec 2.5 Perceptron Learning Algorithm
Perceptron Learning Algorithm
Logistic Regression Using Excel
LLM Chronicles #3.1: Loss Function and Gradient Descent (ReUpload)
5.0 / 5 (0 votes)