Studi Kasus Stack - Histori Browser
Summary
TLDRThis video tutorial covers the implementation of a stack data structure to simulate a browser's history feature. The tutorial demonstrates how to store and navigate URLs using stack operations like push and pop. It also explains parsing and extracting metadata from URLs, including titles and descriptions, using Python libraries. Additionally, the tutorial introduces web scraping techniques with the requests and lxml libraries, showcasing how to create a simple browser-like program that manages back and forward navigation. The video provides a hands-on example for understanding stack usage in real-world applications.
Takeaways
- 📚 The tutorial is about implementing a browser history feature using a stack data structure.
- 💻 The program simulates browser behavior, focusing on history management, including back and forward navigation.
- 🔄 The stack is used to store URLs as the user navigates through them, allowing for back and forward operations.
- 🔍 The tutorial covers the creation of a stack class with methods like push, pop, and checking the last item without removal.
- 🔒 Emphasis is placed on encapsulation, ensuring that data stored in the stack is private and only accessible through specific methods.
- 🌐 The tutorial explains how to parse a URL to extract components like scheme, net location, and port, using a Python library.
- ⚙️ The script demonstrates how to add URLs to history, navigate back and forward, and display the entire history.
- 🛠️ A bonus feature is added where the program retrieves and displays metadata like the title and description from a webpage.
- 📦 The tutorial makes use of Python libraries such as requests for fetching web content and lxml for parsing HTML.
- 📝 The final part of the tutorial highlights the potential of the program for web scraping and further browser automation.
Q & A
What is the main objective of the tutorial described in the script?
-The main objective of the tutorial is to teach how to implement a stack data structure to simulate browser history navigation, specifically handling back and forward operations.
What data structure is used to simulate browser history in the tutorial?
-The stack (or 'stek' in the script) data structure is used to simulate browser history, allowing the storage and retrieval of URLs in a Last-In-First-Out (LIFO) manner.
How does the program handle the 'back' and 'forward' browser actions?
-The 'back' action pops the last URL from the history stack and moves it to the forward stack. Conversely, the 'forward' action pops the last URL from the forward stack and moves it back to the history stack.
Why is encapsulation important in the context of this tutorial?
-Encapsulation is important because it restricts access to the stack's internal data, ensuring that the data can only be modified using defined methods like push and pop, preventing unauthorized or unintended modifications.
What are the two key metadata elements retrieved from a web page in the tutorial?
-The two key metadata elements retrieved from a web page are the 'title' and the 'description' of the page, which are commonly used to understand the content and purpose of the page.
How does the program extract and display the URL metadata?
-The program uses the `lxml` and `requests` libraries to parse the HTML content of a web page and extract metadata like the title and description, which are then displayed to the user.
What is the significance of the `__data` attribute in the stack implementation?
-The `__data` attribute is a private attribute that stores the stack's elements. Its private status ensures that it can only be accessed and modified through the stack's methods, following the principle of encapsulation.
Why does the program not implement a real browser but only simulates the browser history?
-The program focuses on teaching the stack data structure and its applications rather than building a full-fledged browser, so it only simulates the browser history without rendering actual web pages.
What libraries are recommended for more advanced web scraping in Python?
-For more advanced web scraping, the tutorial suggests using libraries like `BeautifulSoup` for parsing HTML, along with `requests` for fetching web content. For even more complex tasks, tools like `Scrapy` are recommended.
What is the purpose of the `Len` function in the stack implementation?
-The `Len` function in the stack implementation is used to return the number of elements currently stored in the stack, helping to manage and assess the stack's size.
Outlines
📚 Introduction to Stack and Browser History Simulation
This paragraph introduces the concept of simulating browser history using a stack data structure. The tutorial explains how to create a simple program that mimics the behavior of a web browser's back and forward navigation. The program does not create a real browser but simulates the process by storing URLs in a stack. The introduction also discusses the structure of the program, including how to handle pushing and popping URLs from the stack, and how to ensure the program handles edge cases like empty stacks.
🔄 Processing and Accessing Data in the Stack
This section delves into the mechanics of how the stack processes and retrieves data. It explains the concept of Last In, First Out (LIFO), where the last item added is the first one processed. The paragraph emphasizes that the stack is designed for processing rather than storing data long-term, and it highlights the importance of encapsulation in object-oriented programming. The example of accessing stack data is given, where the program must follow the correct method to prevent errors.
🔍 Parsing URLs and Extracting Metadata
Here, the focus shifts to the process of parsing URLs and extracting relevant metadata. The paragraph explains how the program breaks down a URL into its components, such as the scheme, net location, and path. It introduces the use of Python's urllib library to perform this task and discusses the importance of proper parsing for accurate processing of the URL. Additionally, it mentions how the parsed data is stored and displayed to the user.
⏪ Implementing Back and Forward Navigation
This paragraph covers the implementation of back and forward navigation within the simulated browser. It discusses how the program saves the state of URLs when navigating backward or forward, ensuring that the correct history is maintained. The paragraph also introduces the logic needed to handle cases where the user attempts to navigate beyond the available history, providing a graceful fallback when the history stack is empty.
🌐 Fetching and Displaying Web Metadata
In this section, the tutorial expands on the basic simulation by introducing real web requests to fetch metadata from actual URLs. The paragraph explains the use of the requests library to retrieve web pages and the lxml library to parse HTML and extract metadata like the title and description. The paragraph also demonstrates how this data can be fetched and processed, providing a more realistic browser experience, albeit still limited to metadata.
🔗 Advanced Web Scraping Techniques
The final paragraph introduces advanced web scraping techniques for those interested in further expanding the capabilities of the program. It discusses using libraries like BeautifulSoup for more complex parsing tasks and mentions the potential for creating a more sophisticated browser simulator. The paragraph encourages exploring these techniques for more robust data extraction and provides guidance on where to find documentation for further learning.
Mindmap
Keywords
💡Stack
💡History
💡URL Parsing
💡Backward Navigation
💡Forward Navigation
💡Encapsulation
💡Object-Oriented Programming
💡Browser Simulation
💡Metadata Extraction
💡Python Libraries
Highlights
Introduction to a tutorial on creating a browser history simulation using the stack data structure.
Explanation of how a stack can be used to simulate a browser's history and navigation functions.
Demonstration of stack implementation in Python, including the creation of basic stack operations like push and pop.
Detailed explanation of the difference between using pop and peek in stack operations.
Illustration of how to manage browser history using stacks for both backward and forward navigation.
Discussion on the encapsulation principle in object-oriented programming (OOP) using the stack class as an example.
Step-by-step guide on building a simple browser simulation with stack-based history management in Python.
Implementation of functions to parse and display URL components such as scheme, net location, and port.
Use of the `urllib.parse` library in Python for URL parsing and extraction of metadata.
Addition of a feature to retrieve and display webpage metadata, such as title and description, using the `requests` and `lxml` libraries.
Demonstration of metadata extraction from actual web pages using Python's `requests` library and HTML parsing techniques.
Example of using the `requests` library to fetch webpage content and `lxml` to parse the HTML structure.
Explanation of the differences between private and public attributes in Python classes, emphasizing data encapsulation.
Conclusion summarizing the tutorial's goal of creating a stack-based browser history simulation and additional features.
Encouragement to explore more advanced web scraping techniques using Python libraries like BeautifulSoup for more complex tasks.
Transcripts
Hai assalamualaikum warahmatullahi
enggak pertama datang kembali di
tutorial ngeremehin menggunakan paytren
pada video tutorial kali ini kita akan
membahas satu kasus struktur data yaitu
kasus step Dika Suspect ini kita akan
menerapkan stek atau tumpukan untuk
membuat history browser rencananya kita
akan membuat program untuk
mensimulasikan cara kerja browser.jad
tidak membuat brosur kebenaran hanya
sekedar jumlah saja dengan ketentuan
sebagai berikut ketika program berjalan
berjalan pengguna dapat menimbulkan
sebagai RL akan berakhirnya kemudian
setelah menyebabkan yelprogram akan
menampilkan deskripsi dari hotel itu
kemunculan itu program juga akan
menyimpan tentu Haji RL jadi misalkan
pertama masuk dinus.ac.id into the akan
disimpan kemudian selanjutnya Kalau kita
memilih menu bebek kita akan kembali
membuka URL sebelumnya sayurnya nanti
jika pengguna memilih menu forward kita
bisa membuka
RL setelahnya aja setelah Baik nanti
bisa forward capek lagi dan seterusnya
pengguna dapat melihat semua url yang
beriman pada historynya Jadi kalau
misalkan kita pilih 10 nanti akan
colorstory jadi karena takutnya kita
adalah mata kelas struktur data jadi
kita enggak membuat browser beneran
untuk menampilkan web to bukan kita
hanya menampilkan deskripsi dari URL
tersebut Tapi nanti sebagai bonusnya
kita akan membuka benar-benar buka
halaman werel tapi hanya mengambil
beberapa metode tajwid akan mengambil
berapa metadata sederhana yang
kemungkinan besar akan ada di semua
halaman web tahun saja kita pertama
membuat tipe data stek terlebih dahulu
membuat teks bye
Hai ini adalah konstruktor nya
Hai fungsi yang pertama kali dipanggil
ketika stek ini dibuat kemudian ada satu
atributnya yaitu Salvador seorang skor
data fungsi push kita buat dengan
menggunakan Open fungsi pop kita sama
menggunakan pop kita akan mengambil data
paling akhir diinputkan dengan
menggunakan action Nanti kalau habis
maka dia akan melakukan return nan kalau
tidak seperti ini nanti ketika datangnya
habis dan kita tetap melakukan pop jalan
keluar error dan perkembangan berhenti
Pi kini untuk mengecek data yang
terakhir data apa saja tapi tidak
langsung dihapus seperti pada pop
remaining untuk mengecek semua data yang
tersisa
Hai dan terakhir adalah fungsi Len untuk
menghitung jumlah data di sini datanya
saya simpan dalam bentuk eh Lis dengan
menggunakan nama variabel underscore
underscore data lah dalam ayat 6a
variabel dalam class atau nama atribut
dalam class jika diawali dengan
underscore underscore maka dia sifatnya
privat artinya data ini dia tidak akan
bisa diakses dari luar kelas selanjutnya
kita buat file baru Nah disini kita akan
membuat mainnya kita impor dulu steknya
mungkin gunakan me in respective
Hai gede banget Jupe histo Story sama
dengan seks Keke kita coba konsep stek
dulu disini jadi eh distek kita bisa
menambahkan history pose knia http
dinus.ac.id Story pos google.com
tokopedia.co.id Sorry remaining history
Pop
the story and many
Hai Hoi harus di pinggir kelihatannya
kita jalankan cantik ke pada awalnya di
Story remaining ini kita menginputkan
tiga alamat yaitu dinus.ac.id google.com
tubidy.co.id kemudian kita melakukan pop
maka dia akan memproses tokopedia.co.id
saya mengatakan pop ini memproses ya
bukan menghapus ya Karena tujuan dari
stek adalah penyimpanan data untuk
Processing bukan penyimpanan data
seperti data fisik
Hai tekan baterai kram kita akan hanya
punya satu jalur kode dalam kiranya
punya jalur pada jadi kita hanya bisa
memproses satu proses saja tekan terjadi
banyak proses urutan kerja yang akan
diproses terlebih dahulu itu mana ada
kalau kita menggunakan stek maka urutan
kerjanya adalah yang diproses paling
awal adalah yang ditemukan paling akhir
itu maksudnya seperti pohon berarti stek
itu untuk menyimpan data agar data nama
data mahasiswa gitu simpan kemudian
nanti ditampilkan lagi bukan redupkan
tujuannya bukan seperti itu tapi kita
tes TKD Allah urutan proses urutan
prosesnya yang mau diproses seperti yang
mau diproses yang mana dulu jadi disini
kita sudah memproses tokopedia.co.id
awalnya seperti itu kita menampilkan
tube.co.id setelah ah Tokopedia kita
proses masih ada dua yang belum diproses
yaitu dinus.ac.id dan google.com Kenapa
saya harus menggunakan email
nampak kita tidak langsung menggunakan
print history kantor score underscore
data saja
Hai nah oke kita jelas-jelas disini
distek kita punya eh atribut under score
underscore tetapi ketika kita
mengaksesnya langsung dari main.py
historia.co.id telah error oksigen
atribut underscore underscore data
karena sifatnya underscore underscore
data ini private artinya Dia hanya bisa
diakses ketika yang fungsinya yang Makes
itu ada di dalam plastik itu sendiri
kalau dia diakses dari luar kelas
misalnya kita disini mengakses dari
mencret peyek dia akan dianggap tidak
ada ini prinsipnya adalah enkapsulasi
nanti bisa dipastikan lebih lanjut
Ketika nanti sudah masuk ke mata boleh
pemograman berorientasi objek Kenapa
saya buatan transfer data karena disini
saya memastikan bahwa tag itu hanya bisa
diakses dengan cara yang kita inginkan
dengan cara inginkan coba yaitu dengan
Pools
topik reminding dan clean jadi tidak
bisa nanti tiba-tiba kita mengakses yang
kita memproses yang di tengah itu tidak
bisa karena kalau mau proses harus
sesuai urutan dengan menggunakan pop ya
ini hanya sekedar untuk dicoba aja kita
lanjutkan buat browsernya jadi kita ada
histori untuk baik dan untuk of forward
jadi disini saya tulis baik dan ada
forward kita memerlukan state untuk
menyimpan dan history kebelakang dan
history terbanyak karena kedepannya juga
Star ke depan itu juga memprosesnya juga
satu-satu ya Mulai dari data yang paling
terakhir dan data seterusnya kemudian
karena ini nanti akan dipakai
berulang-ulang nanti kita seakan buat
walkthrough
hai hai
Hai from OST impor sistem untuk nanti
menggunakan sistem clear objek lebih
rapi saya buatkan fungsi di atas jadi
fungsi ini tidak wajib ya tidak wajib
hanya saja biar nanti di dalam mainnya
ini tidak terlalu banyak codingan saya
pindahkan ke atas ini kalau mau lebih
rapi lagi pastinya nanti akan seharusnya
kita akan memindahkan ke file yang lain
menu
Hai mukanya saya masukkan ke dalam
inputan menu hebat IV yang diinput
dahulu disini kita punya kondisi uh
untuk input irlb untuk bakef untuk
forward Hah show history dan X untuk
loakin instruktur menunya UBS biar
enggak error saya kasih pas semua dulu
di Indonesia lanjutnya kita mulai dari
yang di hutan menu kalau dipilih noh
Mekkah kita akan menginputkan url-nya
apa kemudian mau di Tampilkan deskripsi
deskripsi yang saya maksud disini adalah
struktur dari Earth sendiri RL itu
tolong siapkan http2 dinus.ac.id Yaitu
terdiri apa saja ada game skemanya ada
bisa http bisa ttps net location itu
berarti diri saja gede itu locationnya
port-nya itu berapa default-nya 80
harusnya tesnya itu yang terletak
setelah net location jadi jalan dinus.ac
gede flash articles list detail itu
Misalkan adalah nya sedangkan Polri itu
kalau misalkan ada q = 5 itu adalah
Hai warungnya saya akan menampilkan ini
untuk menampilkan ini semua saya akan
menggunakan library yang ada pada
paytren yaitu biar Alphard G
hai hai
ini dia akan eh dia akan membaca url
yang bisa disembuhkan kemudian akan
menghasilkan parkir er nanti yang parkir
Eli nanti yang akan dipecah pecah skema
dan lain sebagainya kini variabel untuk
Extraction nya jadi skema itu kita ambil
dari URL skemp
Hai atau jika tidak ada maka default-nya
adalah http biasanya antara DDP atau
ttps port-nya port-nya default-nya
adalah 80 jika ada potnya maka dia 80
jika potnya diinputkan maka dia akan
mengikuti port nya berapa kalau misalkan
Anda port-port lain kadang-kadang eh ada
website yang menyediakan untuk port-port
yang lain kemudian net location itu dia
akan mengambil dari netlog kecuali kalau
networknya tidak ada maka dia akan
mengambil dari part
Hai dan sebaliknya kalau pas nyatanya
bebasnya kosong ini facenya si r l sama
kabelnya sudah pasti lele oke oke kita
coba dulu
Hai angkutan
Hai kalau kita input kan yang lain dia
enggak akan selesai uh input qrl ini
saya akan http dinus.ac.id Ours ada yang
kelupaan setelah else kita tambahkan
input biar nanti dia tak langsung tutup
Hai laki-laki nah kelas dulu editor
sakiti skemanya adalah TTP lokasinya
adalah nasehat dari di depoknya lapan
puluh
hai hai
hai hai
Hai Sedangkan ini kulino kesini ya ya
skemanya adalah TPS locationnya kulino
port-nya lawan puluh petnya course.you
tidak HP ini adalah fans-nya query nya
Ed = 6316 ini belum bisa keluar ya bisa
keluar Saya pakai control D dulu
the lounge keluarnya ini saya
menyaksikan luarnya di sini oke nanti
kalau kita pencet X nanti dia akan
hampir semua kembali dan exit
selanjutnya kita mengimplementasikan
fungsi baknya Oh ya Eh tadi kita masih
belum menyimpan url-nya ya harus telah
berhasil tampil itu kita simpan dengan
menggunakan stek.com yel-yelnya kita
simpan pada history
Hai selanjutnya ketika kita mengambil
bebek maka url-nya itu kita ambil dari
history teh.com kemudian dia relnya kita
parsing lagi kerjanya sangat persis
seperti ini karena saya enggak mau nulis
banyak jadi sebaiknya ini saya pindah ke
fungsi ada hebat fungsi f parts url r&d
disini Saya cukup manggilnya adalah
parsi er
sama tidak berarti di sini sama juga
nggak perlu bikin lagi parsi url
kemudian kalau kita backup history for
what nya juga harus kita simpan kalau
kita baik maka history formatnya kita
simpan forward
hai hai
Hai Nah tadi nanti kemungkinan kalau
kita sudah melakukan Fit sampai akhir
nanti kan history baiknya akan kosong
nih seharusnya akan kosong Kalau
tarifnya akan kosong kita kasih
pernyataan saja seperti if you at El
Isnan nanti dia akan ngeprint
hai biz.top oriflek kosong belum ada
isinya hells baru kalau kan ini
Hai Elsword kita lakukan ini selanjutnya
yang forward juga forward itu seharusnya
juga hampir sama seperti ini jadi saya
cop tips aja duit bukan menggunakan bak
pop tapi sport word Pop
Hai sorry forward kosong parsi RL sama
setelah kita forward ini pasnya belum
dihapus setelah kira forward itu
historynya juga kekasih Man kita Balikin
ke BAK sebaliknya jadi teh modern
sekarang saja karena ini sederhana haid
untuk menampilkan Semua history history
kita punya dua history disini yaitu
history badan history for word maka
disini kita Tuliskan keduanya print baik
remaining plus forward semen oke
Hai masih kosong mereka masih kosong
jauh Story juga masih kosong input drl
kita input kan drl dulu https di
Indonesia Tercinta Titin kita masukkan
juga yang boleh no Oke kita masukkan
Yazid live Oke kalau kita lihat
historynya kita sudah punya history ini
Hai saya pengen baik maka kalau di bebek
itu yang pertama kita ambil adalah dari
kitab Dea coba baik nah keluar kitabnya
baik lagi mau belum infek lagi sekarang
ke kulino baik lagi di dinus.ac.id baik
lagi Story kosong forward
Hai pancen salah disini diwaktu kita
copy page spacenya enggak hilang masalah
dikit sini bareng lagi kulino masuk
pertama kemudian input lagi gitlabs
Hai Oke kita lihat historynya ada ini
kalau saya pek haiten yang terakhir
masukkan lebih baik lagi kejut lab saya
forward cat lagi karena tadi barusan
diperluakan dari baik dengan sangat ke
dalam forward forward lagi ke Paiton
lagi
I hope sword lagi kosong dek ke paytren
baik kejut life-cycle kulino baik lagi
kosong Kalau di history dia masih tetap
karena history ini kita buat tadi dia
menyimpan for back dan forward jadi
apapun yang tersimpan di badan forward
ini dia akan semua tampil di sini
I make jadi ah kita sudah berhasil
mengimplementasikan stek untuk history
back dan forward pada browser abal-abal
ini sekarang kita kita tadi cuman
menampilkan deskripsinya parkire Lini
seharusnya Nggak cukup lagi masak cuman
menampilkan deskripsi saja seharusnya
kita mengambil minta dia nih kita masuk
ke Bonus kita benar-benar membuka
halaman url tapi hanya mengambil Brown
tapi harta saja tapi bukan menampilkan
semua isinya web Disini saya akan
menggunakan
Hai Februari piton yang sudah banyak
tersedia di internet kita nggak perlu
bikin ulang dari awal untuk membuka web
itu kita menggunakan frequensee seledri
request parsing html kita menggunakan
lxml HTML ada yang lebih bagus
Sebenarnya ada yang lebih muda
sebenarnya pakainya beautifulsoup tapi
disini saya menggunakan yang reaksi
kacer menggunakan HTML untuk yang
request ini kita mungkin perlu melakukan
pipe install request kalau pertama kali
install python dan belum pernah
menggunakan eh request Kita harus
melakukan tipe ini dulu di sini
t-shirt Alya Kalau di tempat saya ini
sudah ada jadi
Hai kyup belakangnya
Hai caranya cari di tempat saya sudah
ada dia keluar ikut Warman already
speech tapi kalau belum ada nanti dia
akan ada download dari internet
menggunakan t-cash Oke selanjutnya eh
Hai selanjutnya saya buat fungsi laki
bukan porsi RL tapi gempar di RL tapi
menggunakan Open url er Apa yang akan
kita metadata apa yang akan kita buka di
sini eh hampir selalu ada di setiap bab
site ini contohnya dipiten di kulino
digit lab itu kalau kita view page
source ya Ada pertama dia selalu ada
title title ini meternya Vettel ini dia
yang muncul di atas ini Welcome to
python.org ini adalah title yang kedua
adalah description description itu
deskripsi dari halaman ini untuk
dikenali Google itu apa official home
page of Python programming language gitu
jadi kulino
Hai ada tolnya ada di atas sini kuliah
online Udinus descriptionnya kulino
merupakan learning Februari blablablabla
sedangkan dijiplak vitalnya adalah The
First single application for interior
case of description nya neng description
ini ada yang description Twitter
description property description ngada
from Project planning blablablablabla
ada yg menjadi semuanya hampir semua web
itu memiliki dua komponen ini ya oke
sebelum kita membuat programnya Saya
tunjukkan dulu Bagaimana cara kerja
paytren requestnya dan three sport
request jadi kalau kita manggil ini
paytren request
Hai http.get uikit siaran menampilkan
response 20 saja
a response 200jta mengambilkan objek
dengan representasi respons 200 Artinya
kita sudah berhasil mengambil data dari
instagram.id saya cuman ke dalam
variabel lemahnya Rush
Hai pagi terus
Hai Konawe ponsel dosa2 kita ambil
konten nah ini konten yang kita dapatkan
html Adobe buahnya sebanyak ini
Hai ini kalau tidak mau dapatkan
semuanya kita tidak mungkin menampilkan
ini pada command prompt karena akan
kepanjangan nantinya makanya dari Rest
content in tadi hasil konten kita
dapatkan nanti kita akan memparsing
dengan menggunakan HTML yang ada dari
lxml untuk mengambil title dan eh untuk
mengambil Wetan dan Meta deskripsi saja
lo lagi kepingin kita Rush sama dengan
request RL kemudian ke dalam prosesor
html html forms from string tasimpan
html three diparaf oleh menteri kita
cetak
Hai di sini kita cetak
Hai kacetak Paito dan kita Meta
description metalnya itu kita rekannya
itu kita parsing dari html3 expert kita
ambil yang teksnya title
Hai teks kemudian yang metal description
juga
Hai Meta description kita ambil dari
html3 expert kita cari yang komponen
Meta dan namanya adalah description kita
ambil kontaknya Oke sudah semua sekarang
kita gantiang parsi RL ini kita ganti
jadi oven
hai hai
Oh Ya sepertinya sudah semua kita coba
jalankan lagi url http uniqdeal
Hai Timnas tergede keluar ya keluar
vitalnya dalonzo Nuswantoro Genting Kra
aktivitas ia kita hahaha
Kyle laki citrate keluar ini titelnya
for single application for blablabla dan
ini adalah descriptionnya promotion
blablablablabla kita ambil lagi yang
memungkinkan lagi untuk yang Fighter
keluar kebaikan road officer of wedding
makeup dikalahkan bak keluar lagi for
watching word dan seterusnya jadi itu
yang sudah kita buat kita buat browser
sederhana yang menyimpan data history di
black dan forward dengan menggunakan
stek jadi ini adalah Allah atau
implementasi step dimana kita menyimpan
eh menyimpan history browser jadi
misalkan di sini ya kita memarkan 8 ini
baik-baik forward forward forward
ekor batiknya itu datanya di Iman di
dalam stek dengan menggunakan ini
penyimpanannya dan cara seperti ini
selanjutnya di ini saya setel
mencontohkan beberapa hal yang tidak ada
di perkuliahan ya bentrokan ini saya
mengambil url pars nanti bisa dicari di
paytren di Eropa sini menampilkan apa
aja kemudian request ini untuk mengambil
data dari website cari di Google paytren
request studia dokumentasinya ngapain
aja ini biasa digunakan untuk scripping
atau kalau misalkan kita membuat browser
mini nanti dengan menggunakan gue
keluarnya benar-benar tampilan web Kita
juga bisa menggunakan seperti ini
kemudian from Mein kabse lanjutnya untuk
wasting htmlnya kita menggunakan lxml
dan html kalau pengen tahu bagaimana
cara mengambil komponen-komponen HTML
dari lxml ini bisa cari di
dokumentasinya juga pakai Kernel xml
html menggabungkan
yang antara request dan head timeline
biasa-biasa digunakan untuk skretting
atau mengambil sebagian data dari web
secara otomatis ada yang lebih canggih
lagi untuk saja ini sangat bersih sekali
kalau mau yang lebih canggih lagi ada
bisa pakai vectorscribe dan menggunakan
Speedy full sub tuh bisa aja lebih
canggih lagi Oke cukup sampai disini
Semoga dapat dipahami Semoga bisa
bermanfaat kalau masih ada yang kurang
paham bisa diulang lagi videonya
berhenti di tempat-tempat yang kurang
dipahami kemudian kalau masih belum
habis adibet lagi dan seterusnya kalau
masih ada pertanyaan silahkan dituliskan
di kolom komentar dan dari saya selama
alaikum warahmatullah barakatuh
関連動画をさらに表示
Execute Python Code Directly from MATLAB (pass and receive variables)
L-1.8: Data Transfer Instructions in Computer Organisation and Architecture
Python Bytecode: An Introductory Tutorial
AWS Cloudformation Step by Step Tutorial - Create a DynamoDB Table!
Try this SIMPLE trick when scraping product data
Scrape Data from Any Website with Browse Ai | Extract any data from any website
5.0 / 5 (0 votes)