Comment j'ai recodé Google en 7 jours.

V2F
19 Jan 202412:20

Summary

TLDRThe video explores how to build a web search engine from scratch. It starts by explaining web crawling using multiple crawlers in parallel to find and index web pages. An indexing system is then created to enable fast searching, using techniques like TF-IDF scoring and PageRank algorithm. The system is hosted on a VPS server with FastAPI. A website is made with WordPress to showcase the search engine. Overall, the project demonstrates core concepts like crawling, indexing, ranking web pages that power search engines like Google.

Takeaways

  • 😀 Takeaway 1
  • 😀 Takeaway 2
  • 😀 Takeaway 3
  • 😀 Takeaway 4
  • 😀 Takeaway 5
  • 😀 Takeaway 6
  • 😀 Takeaway 7
  • 😀 Takeaway 8
  • 😀 Takeaway 9
  • 😀 Takeaway 10

Q & A

  • Who is considered to have created the very first search engine, and what was its name?

    -The first search engine is often considered to be Aliweb.

  • What year did Tim Berners-Lee invent the World Wide Web?

    -Tim Berners-Lee invented the World Wide Web in 1989.

  • What innovative method did the script discuss for indexing the web?

    -The script discussed the use of a web crawler, a program that visits web pages to gather information and links to index the web.

  • Who was Matthew Grey, and what was his contribution to the early web?

    -Matthew Grey was an MIT student who created the Wanderer in 1993, aiming to estimate the number of websites that existed, introducing an early concept of web crawling.

  • What is the significance of the 'robots.txt' file according to the script?

    -The 'robots.txt' file is used by websites to indicate to search engines which pages should not be indexed, part of respecting web standards and privacy.

  • What does the script describe as a potential legal issue with web crawlers?

    -The script mentions that if multiple crawlers download pages from the same site simultaneously, it could overwhelm the server, potentially leading to a denial-of-service (DoS) attack, which is illegal.

  • What is the 'Deep Web' as described in the script?

    -The Deep Web refers to parts of the internet not indexed by search engines, often because site owners have indicated a preference not to be included in search engine databases.

  • What solution does the script propose for managing the queue of sites to be crawled, considering the memory constraints?

    -The script suggests creating a separate database table for the queue to efficiently manage memory usage, despite potential slowdowns due to database searches.

  • What is the primary bottleneck for the speed of web crawlers as mentioned in the script?

    -The primary bottleneck is the speed at which requests are made and processed, along with the number of crawlers running in parallel.

  • What indexing method is described to improve search result relevance and how does it work?

    -The TF-IDF (Term Frequency-Inverse Document Frequency) method is described, which improves relevance by considering both the frequency of words in documents and their commonness across all documents.

  • How does the script suggest making a web crawler more efficient and avoid legal issues?

    -By using a dictionary to track domains that have been crawled and ensuring a respectful delay before making new requests to the same domain, thus avoiding overloading servers.

Outlines

00:00

😀 Tim Berners-Lee's invention of the web and the need for web search

Paragraph 1 discusses how Tim Berners-Lee invented the web in 1989 and originally kept a notebook of all existing websites. As the number of sites grew exponentially, a more efficient way of searching the web was needed. Whoever solved this would create the most influential company ever.

05:01

👨‍💻 Coding a web crawler and indexer

Paragraph 2 explains how a web crawler works - starting from an initial page, it extracts information to add to a database and queues up all the links it finds to crawl next. Multiple crawlers are used to speed things up. An indexer is then created to enable fast keyword searches across the database.

10:03

🏆 Combining crawler, indexer and page rank for a search engine

Paragraph 3 discusses adding page rank to weight search results by how many other reputable sites link to them. The narrator then creates a frontend, tests the search engine, and compares it to Google, noting there is more Google does that could be added.

Mindmap

Keywords

💡Web crawling

Web crawling refers to the process of systematically browsing and indexing web pages. It involves a crawler program that starts with an initial set of URLs, downloads the pages, extracts information, and adds new URLs found to a queue. This is a core part of how search engines like Google gather their index of web pages. The video explains the basic crawling algorithm and some optimizations like parallel crawlers and politeness policies.

💡Indexing

Indexing refers to the process of organizing and structuring the data collected by web crawlers to enable fast searching. The video describes how indexing works - creating an inverted index mapping words to documents and storing additional metadata like word counts. This allows fast lookup of pages matching a search query.

💡PageRank algorithm

PageRank is the key algorithm behind Google's search results ranking. It determines the importance of a web page based on the external pages linking to it, under the assumption that more links = more endorsement of quality. The video explains how PageRank scores each page and combines it with other signals like TF-IDF to order search results.

💡TF-IDF

TF-IDF stands for term frequency–inverse document frequency. It is a numerical measure used to evaluate how important a word is in a document compared to a collection of documents. The video describes how TF-IDF is used along with PageRank to score the relevance of search results.

💡Search engine

A search engine like Google combines web crawling, indexing, ranking algorithms and query handling to enable users to search for web pages matching keyword queries. The video builds a basic search engine with crawling, indexing, PageRank and TF-IDF to demonstrate these underlying technologies.

💡API

API stands for application programming interface. The video exposes the search functionality through an API so it can be invoked from anywhere programmatically, not just the web UI. This is done using FastAPI and hosted on the VPS server.

💡VPS server

A VPS or virtual private server is a remote virtual machine instance used to host and run the crawler continuously. The video uses a VPS with good bandwidth and CPU to achieve high crawling throughput.

💡Website creation

The video uses Hostinger's WordPress hosting and business plan features like automatic site content creation from prompts to easily build an informational site for the search engine project.

💡Logo generation

The video script mentions using Hostinger's Uni tool to automatically generate a logo by providing a text prompt, as part of building the search engine demo site.

💡Search page

The final search page UI with the logo, search bar and results from calling the API is shown at the end when demonstrating the full working search engine.

Highlights

The speaker discusses using neural networks and deep learning for natural language processing tasks.

They explain the challenges of sentiment analysis and how word embeddings can be used to improve accuracy.

An overview is provided of various neural network architectures like CNNs and LSTMs for text classification.

Key takeaway - deep learning approaches outperform traditional ML models for NLP tasks.

The speaker highlights innovations in transfer learning and pre-trained models like BERT and GPT-3.

Discussion on how transformers and attention mechanisms lead to state-of-the-art results.

Examples given of real-world NLP applications like chatbots, machine translation and text generation.

They emphasize the need for interpretability and explainability in NLP models.

The potential societal impacts of NLP technologies are explored.

Future directions are considered such as commonsense reasoning and multi-modal learning.

Overall, the talk provides a comprehensive overview of deep learning techniques for NLP.

Helpful examples and visuals are used to explain complex NLP concepts.

The speaker highlights key challenges and opportunities in applying deep learning to language tasks.

They emphasize the need for ethics and accountability as NLP becomes more advanced.

Key takeaway - deep learning is driving rapid progress in NLP and transforming capabilities.

Transcripts

play00:00

quand Tim bernersley a inventé le web en

play00:01

1989 il avait un petit cahier dans

play00:03

lequel il notait tous les sites qui

play00:05

existaient c'était alors le seul moyen

play00:07

de parcourir le web il n'a pas fallu

play00:08

longtemps pour qu'un site se charge

play00:09

d'héberger cette liste mais tout était

play00:11

encore fait à la main et c'était un

play00:13

problème rapidement il y avait beaucoup

play00:15

trop de sites pour pouvoir tous les

play00:16

ajouter un à un il fallait trouver un

play00:18

moyen efficace et viable de rechercher

play00:20

le web il devenait clair que quiconque

play00:21

trouverait la meilleure solution

play00:23

créerait l'entreprise la plus influente

play00:25

de tous les temps aujourd'hui on va

play00:27

recoder cette solution en une seu semain

play00:31

perdons pas de temps projet réalisé en

play00:33

collaboration avec cosostinger bien en

play00:35

description pour en profiter quand tu

play00:36

fais une requête sur Google ce n'est pas

play00:38

internet qui est recherché mais une base

play00:39

de données gigantesque qui contient

play00:41

toutes les pages Web que l'entreprise

play00:43

américaine connaît un site Web peut y

play00:45

être référencé de deux manières

play00:46

différentes la première méthode est

play00:47

similaire à ce que faisait aliweb qui

play00:49

est souvent considéré comme le tout

play00:50

premier moteur de recherche à l'époque

play00:52

il fallait que l'administrateur d'un

play00:54

site fasse une demande en décrivant son

play00:55

contenu et s'il était accepté il était

play00:57

ajouté à la base de données d'aliweb

play00:59

mais clairement ça c'est dépassé c'est

play01:01

vraiment juste au cas où ton site n'a

play01:02

pas été ajouté automatiquement à la BDD

play01:05

par la deuxième méthode qu'on va

play01:06

implémenter le crawerer un crawerer

play01:08

c'est un petit programme auquel on donne

play01:10

une page web peu importe laquelle celle

play01:12

qu'on veut on va lui demander d'aller

play01:13

dessus de récupérer le titre les

play01:15

sous-titres les métadata évidemment le

play01:17

texte et d'ajouter tout ça à notre base

play01:19

de données ensuite la partie la plus

play01:20

importante on récupère tous les liens

play01:22

cliquables de cette page en faisant le

play01:24

tri évidemment on veut que des URL

play01:26

valides ou des URL relatifs qu'on pourra

play01:28

transformer en URL valid ces liens on va

play01:30

les rajouter à une file d'attente quand

play01:32

notre crawer en a fini avec une page il

play01:34

en prend une nouvelle dans la file et le

play01:35

procédé se répète encore et encore d'une

play01:38

page on en découvre ainsi une centaine

play01:40

d'autres de la centaine d'autres on en

play01:42

découvre un millier d'autres et ainsi de

play01:43

suite c'est exponentiel cette idée de

play01:45

crawler elle vient pas de Google mais

play01:47

d'un étudiant du MIT Matthew Grey avec

play01:50

son projet wonderer en 1993 son objectif

play01:53

était d'estimer le nombre de sites Web

play01:54

qui existait d'ailleurs les stades de

play01:56

son projet sont toujours disponibles en

play01:58

93 il y avait que 623 trois sites et

play02:00

seulement 5 % de sites commerciaux cette

play02:02

idée de crawer elle est clairement

play02:03

révolutionnaire vu que 30 ans plus tard

play02:05

elle est toujours utilisée par les

play02:06

moteurs de recherche alors si je vous

play02:07

demande qui a embauché ce brillant

play02:08

étudiant vous devinez la réponse ok

play02:11

revenons au code on a les bases de notre

play02:13

crawer mais pour l'instant il est

play02:14

beaucoup trop l à cause des requêtes

play02:17

chaque fois qu'on va sur un site ça

play02:18

prend 2 3 secondes pour le télécharger

play02:20

ce qui nous force à tout le temps

play02:22

attendre on peut pas accélérer ses

play02:23

requête mais on peut faire tourner

play02:25

plusieurs craollers en parallèle qui se

play02:26

partagent la file des sites à explorer

play02:28

plus on en a plus son référenera de site

play02:31

chaque seconde mais maintenant on a un

play02:32

autre problème si tout mescraoller

play02:34

télécharge les pages d'un même site on

play02:35

enverrait un tas de requêes au serveur

play02:37

qui l'héberge ce qui pourrait

play02:38

éventuellement le faire cracher ça

play02:40

s'appelle une attaque des dos et c'est

play02:42

illégal un avocat ça coûte cher du coup

play02:44

j'ai préféré créer un dictionnaire dans

play02:46

lequel j'ajoute chaque domaine auquel on

play02:48

a fait une requête accompagnée de quand

play02:50

elle date comme ça mes crawers

play02:51

sélectionnent dans la file d'attente

play02:53

uniquement un domaine pour lequel on a

play02:55

attendu assez longtemps et si aucun

play02:56

domaine n'est disponible on attend avant

play02:58

de refaire une nouvelle requête et un

play03:00

autre truc qu'on doit respecter certains

play03:01

sites ne veulent pas que les moteurs de

play03:03

recherche indexent certaines de leurs

play03:05

pages ces pages non référencées

play03:06

constituent le DIP web pour indiquer

play03:08

leur volonté au moteur de recherche tous

play03:10

les sites ont une page spécialement

play03:11

conçue pour cela on y accède en ajoutant

play03:14

robots.txt à leur URL et comme on peut

play03:16

le voir même wikipédia a plein de pages

play03:19

qu'il demande à ne pas référencer la

play03:21

partie parfois légale sombre à laquelle

play03:23

vous avez peut-être pensé c'est le Dark

play03:25

web qui est une petite partie du Deep

play03:27

web nuance bref faut respecter tout ça

play03:29

donc bah on le fait on a presque fini

play03:32

mais il y a un petit truc qui m'inquiète

play03:33

la file d'attente elle se remplit très

play03:35

vite trop vite et je suis à peu près sûr

play03:37

qu'on aura rapidement plus assez de

play03:39

mémoire pour tout stocker alors on va

play03:40

créer une autre table dans notre base de

play03:42

données juste pour elle histoire d'être

play03:44

sûr sauf que faire une recherche dans

play03:45

une base de données qui plus est avec

play03:47

des millions de lignes c'est beaucoup

play03:49

plus lent que de faire une recherche

play03:50

dans une variable locale comme je le

play03:52

faisais avant et mon intuition me dit

play03:54

que ça va beaucoup nous ralentir du coup

play03:56

j'ai créé une sorte de miniil avec une

play03:58

variable locale on la R remp avec la

play04:00

vraie file qui est dans la BDD on

play04:01

l'utilise pour aller le plus vite

play04:03

possible avec nos crawer et quand elle

play04:04

est presque vide on la remplit de

play04:06

nouveau ok c'est prêt maintenant on va

play04:09

avoir besoin d'un serveur VPS c'est une

play04:11

sorte d'ordinateur que tu peux contrôler

play04:12

à distance alors tu as que accès à la

play04:14

ligne de commande mais pour du code on a

play04:16

pas besoin de plus j'en ai utilisé un

play04:18

pour mon bot Twitter antifur pour mes

play04:19

sites Web ou encore mon bot discord

play04:21

c'est vraiment ce qui donne vie à un

play04:22

projet informatique vu qu'on peut y

play04:24

faire tourner du code en continu ici ce

play04:26

sera nos craoller et pendant qu'il

play04:28

recherche le web je pourrais continuer

play04:29

d'être très productif sur mon propre PC

play04:31

ce sera aussi utile pour y mettre une

play04:33

API et ça ce sera dans la deuxième

play04:35

partie de la vidéo le goulot

play04:36

d'étranglement de nos crawers c'est la

play04:38

vitesse à laquelle on fait les requêtes

play04:40

et le nombre de crawers qui tourn en

play04:41

parallèle donc on a besoin d'un VPS avec

play04:43

une très bonne connexion Internet et un

play04:45

CPU descent 300 MB par seconde de VCPU

play04:48

noyau 8 Go de RAM seulement 6,49 € Dingo

play04:51

on va installer yubuntu comme OS on

play04:53

attend que ça se fasse et tout a l'air

play04:55

d'être prêt 100 Go de disque 2 t de

play04:57

bande passante on remercie au Stinger le

play04:59

sponsor de la vidéo pour ce VPS de

play05:01

qualité en ce moment en plus c'est les

play05:02

seldes de janvier 57 % en moins sur les

play05:05

VPS c'est clairement le moment d'en

play05:06

profiter si tu en veux un sur l'année

play05:08

utilise le lien que tu trouveras en

play05:09

description pour cela plus qu'à mettre

play05:11

le code sur le serveur et à le lancer ok

play05:14

ça a l'air pas mal j'ai laissé ça tner

play05:16

quelques heures suffisamment pour avoir

play05:18

plus de 20000 pages web dans notre base

play05:20

de données et pour les curieux il y

play05:21

avait presque un million de pages dans

play05:23

la file d'attente pour Comparis ce que

play05:24

stock Google évidemment c'est ridicule

play05:26

mais eux ils ont pas un serveur ils en

play05:28

ont des mil sur lesquels sont réparti

play05:30

leur base de données et leur crawer j'ai

play05:32

ni l'argent pour avoir autant de

play05:33

serveurs et encore moins l'intelligence

play05:35

pour pouvoir gérer toute cette

play05:36

infrastructure gigantesque mais bon pour

play05:38

notre expérience 20000 c'est assez on va

play05:40

arrêter de craoller et passer à

play05:42

l'indexation cette étape va nous

play05:43

permettre de faire des recherches ultra

play05:45

rapidement en organisant notre base de

play05:47

données parce que là pour l'instant on a

play05:49

ça une liste d'URL leur titre le texte

play05:51

contenu sur la page les liens contenu

play05:53

sur la page et c'est tout et c'est très

play05:55

mauvais pour faire une recherche si on

play05:57

veut classer toutes les pages qui

play05:58

contiennent le mot coiffeur il faut

play06:00

qu'on compte combien de fois le mot

play06:01

coiffeur apparaît sur chaque page donc

play06:03

on doit prendre la première URL on

play06:04

compte le nombre de coiffeurs on prend

play06:06

la deuxème URL on compte les coiffeur et

play06:08

ainsi de suite et comme on a des

play06:09

milliers de documents bah c'est assez

play06:11

long à la place on voudrait avoir un

play06:12

index inversé c'est-à-dire une deuxième

play06:15

table dans notre base de données qui

play06:16

contient tous les mots possibles

play06:18

associés à une liste des URL dans

play06:19

laquelle ce mot apparaît ainsi que le

play06:21

nombre d'occurrence et là dans notre

play06:22

recherche on trouve le mot direct pour

play06:24

créer cette table bah on va faire ce que

play06:26

j'ai décrit juste avant on parcour

play06:28

chaque URL on regarde leur texte en

play06:29

notant les nouveaux mots dans un

play06:30

dictionnaire et le nombre d'occurrence

play06:32

pour chaque URL qui contient ce mot

play06:34

l'avantage c'est qu'on a à le faire

play06:35

qu'une seule fois pour mes 20000 URL ça

play06:37

a pris un truc du genre une minute pour

play06:39

obtenir les meilleurs résultats d'une

play06:40

recherche on pourrait penser qu'il

play06:42

suffit de prendre les URL qui ont le

play06:43

plus d'occurrence pour chaque mot alors

play06:45

c'est pas bête mais on a un gros

play06:47

problème avec ça dès que la recherche

play06:48

contient un mot ultra commun nos

play06:50

résultats sont affreux par exemple pour

play06:52

chercher le coiffeur on compterit le

play06:54

nombre d'occurrence pour le mot coiffeur

play06:56

ça c'est pertinent mais aussi le nombre

play06:58

d'occurrence pour le mot le qui est

play07:00

absolument partout avec un nombre

play07:02

d'occurrence très élevé alors notre top

play07:04

résultat sera l'URL qui contient le mot

play07:06

le le plus souvent et ça on s'en fout et

play07:08

on a un deuxième problème également

play07:10

admettons que j'ai une page gigantesque

play07:12

avec des milliers de mots et CIN fois le

play07:13

mot coiffeur et une page plus petite

play07:15

avec une centaine de mots et trois fois

play07:17

le mot coiffeur on est d'accord que la

play07:18

deuxième page devrait être plus

play07:20

pertinente pour notre recherche mais en

play07:21

comptant les occurrences bah c'est la

play07:23

première qui gagnerait pour éviter ces

play07:25

deux problèmes on va appliquer la

play07:26

méthode TF IDF le TF est pour TER

play07:29

frequency on va calculer le ratio nombre

play07:31

d'occurrence divisé par le nombre de

play07:33

mots sur la page et ce ratio permet

play07:35

d'éviter le deuxième problème que j'ai

play07:37

décrit le IDF veut dire inverse document

play07:40

frequency on va simplement calculer le

play07:42

ratio nombre de pages totales dans notre

play07:44

BDD divisé par le nombre de pages où le

play07:46

mot recherché peut-être trouvé donc plus

play07:48

un mot est rare dans les pages Web plus

play07:51

ce ratio sera grand pour avoir le score

play07:53

final on a juste à multiplier ces deux

play07:54

valeurs tout en ajoutant un logarithme à

play07:56

la partie IDF parce que sinon elle sera

play07:59

est trop importante par rapport à la

play08:00

partie TF et là on a un classement où

play08:03

les premiers résultats ont un contenu

play08:04

pertinent par rapport à ce qu'on a

play08:06

recherché mais ce qu'on voudrait en plus

play08:07

de ça c'est que les pages les plus

play08:09

intéressantes se démarquent mais mais

play08:10

comment on fait pour déterminer si un

play08:12

contenu est intéressant ou pas la

play08:14

réponse se trouve dans ce document de

play08:16

1998 écrit par Sergy Bren et Lawrence

play08:19

page les deux fondateurs de Google

play08:21

l'idée est simple quand une page web a

play08:23

un lien vers une autre page dans son

play08:24

contenu elle dit en quelque sorte et les

play08:27

infos sur cette page web sont

play08:28

intéressantes regardez là donc plus une

play08:29

page web est citée par les autres plus

play08:32

elle sera intéressante vu que des

play08:33

humains ont fait le choix arbitraire de

play08:35

la conseiller à partir de là on peut se

play08:37

dire qu'il suffit de compter le nombre

play08:38

de liens qui pointent vers une page web

play08:40

pour savoir si elle est intéressante ou

play08:41

non sauf que non car on peut abuser de

play08:43

ce système quelqu'un de malhonnête peut

play08:44

très bien créer plein de pages bidon qui

play08:46

pointent vers son site et hop il se

play08:48

retrouve en haut de la recherche Google

play08:49

pour éviter ça on va faire en sorte que

play08:51

les liens venant des sites qui ne sont

play08:52

jamais cité ailleurs ne valent pas

play08:54

grand-chose alors que les liens des

play08:55

sites très populaires eux valent

play08:57

beaucoup et ça on peut le faire avec

play08:59

cette formule le page R qui a permis à

play09:01

Google de vraiment se lancer il y a plus

play09:03

qu'à l'implémenter on suit simplement la

play09:04

formule pour ça puis on y combine le

play09:06

score TF IDF calculé plusutôt pour

play09:08

obtenir une note finale pour chaque page

play09:11

de la recherche on va aussi créer une

play09:12

API avec Fast API pour que notre

play09:14

recherche soit disponible de n'importe

play09:16

où avec un simple appel HTTP et

play09:18

évidemment on va héberger ça sur notre

play09:20

VPS bon par contre j'oublie toujours

play09:22

comment configurer engings pour que mon

play09:23

serveur accepte les requêes HTTP et

play09:25

heureusement avec lia j'ai un peu d'aide

play09:26

et je peux avoir ma config j'ai juste à

play09:28

copiercoller et ça devrait être bon

play09:30

ouais ça a l'air de marcher C tia qui

play09:32

t'aide avec toutes les tâches de ton VPS

play09:34

etelle est incluse gratuitement avec

play09:36

l'abonnement au Stinger dont je te

play09:37

parlais un petit peu plusôt et en plus

play09:38

il protège ton serveur des attaques des

play09:40

dos ça aussi ça inclut j'ai rien une à

play09:42

faire et c'est plutôt pratique ok la p

play09:45

c'est réglé j'aimerais maintenant créer

play09:46

un site qui l'utilise pour y mettre une

play09:48

page de recherche pour qu'on puisse

play09:49

enfin tester tout ça et en plus de ça

play09:51

j'en profiterai pour faire quelques

play09:52

pages qui présente le projet histoire

play09:54

d'avoir un souvenir de toute façon créer

play09:56

un site c'est rapide avec WordPress et

play09:57

ça d'autant plus quand on est utilise

play09:59

hostinger pour l' héberger ce que j'aime

play10:01

vraiment chez eux c'est que tu as tous

play10:02

les outils nécessaires au même endroit

play10:04

ça te facilite la vie mon VPS c'était

play10:06

chez eux le nom de domaine pour notre

play10:07

site je l'ai pris chez eux en quelques

play10:09

clics et non seulement il est gratuit

play10:11

avec le Plan Business que j'utilise mais

play10:12

en plus ils vont automatiquement le lier

play10:14

à mon site WordPress il y a vraiment

play10:16

qu'à se laisser guider par hostinger

play10:17

pour faire notre site tu choisis un

play10:18

thème tes identifiants un modèle de base

play10:21

pour ton site et ensuite avec le Plan

play10:22

Business et c'est pour ça que je l'ai

play10:23

pris

play10:24

a WordPress à qui tu peux décrire ton

play10:26

projet et qui te créera automatiquement

play10:28

des pages lié à celui-ci pratique pour

play10:30

gagner du temps regarde un petit peu

play10:31

tout le contenu qu'elle a pondu le Plan

play10:33

Business est le meilleur rapport

play10:34

qualité-prix selon moi rien que pour ça

play10:36

évidemment tu peux toujours modifier le

play10:37

site par derrière avec WordPress c'est

play10:39

simple comme mononjour en trois clics et

play10:40

10 minutes j'avais mon site web de fini

play10:42

et pourtant on dirait que j'ai bossé

play10:44

dessus plusieurs heures quand on voit le

play10:45

résultat pour la page de recherche je

play10:47

vais faire comme Google un logo et une

play10:48

barre de recherche du coup il me faut un

play10:50

logo bah ça tombe bien au Stinger à Unia

play10:53

créatrice de logo j'ai juste à décrire

play10:54

mon projet et j'en obtiens un quand je

play10:56

te dis qu'ils font tout au Sigur pour le

play10:57

reste de la page de recherche j'ai

play10:59

utiliser du code HTML et JavaScript

play11:01

custom pour faire appel à mon API je te

play11:03

montre le résultat final de cette page

play11:04

dans un instant mais d'abord je te

play11:05

rappelle que c'est les promos de janvier

play11:07

chez austinger 79 % sur l'hébergement

play11:09

profitesen en sélectionnant le Plan

play11:11

Business choisis une durée supérieure à

play11:12

12 mois c'est ce qui vaut le plus le

play11:14

coup et ce qui te permettra d'avoir 10 %

play11:16

supplémentaires quand tu ajouteras le

play11:17

coupon v2f au moment de payer tuas un

play11:19

mois pour te faire rembourser si jamais

play11:20

ça te plaît pas donc n'hésite pas bon il

play11:22

est temps il est temps de tester notre

play11:25

moteur de recherche Emmanuel Macron

play11:28

c'est instant année quel plaisir et avec

play11:30

le Page Rank on a que des sites bien

play11:32

réputés alors j'ai surtout crollé des

play11:33

sites d'actualité et Wikipédia c'est

play11:36

surtout concentré sur lactu et bordel la

play11:38

vitesse je suis vraiment content de ça

play11:40

alors évidemment Google ils vont encore

play11:41

plus loin que ce que je t'ai montré

play11:43

aujourd'hui il y a pas mal de

play11:44

différences leur crer récupère beaucoup

play11:45

plus d'infos les images par exemple pour

play11:47

faire Google Image la localisation du

play11:49

site pour te montrer les coiffeurs près

play11:51

de chez toi ou encore le temps de

play11:52

chargement du site web et si tu as une

play11:54

vitesse vraiment faible ça va avoir un

play11:56

impact sur ton classement nous on a

play11:57

aussi craollé puis indiqué ça c'est ce

play11:59

que faisit Google à leur début mais de

play12:01

d'un jour ça crole et ça index en Contin

play12:03

continu et en parallèle ça leur permet

play12:04

d'avoir les dernières nouvelles et de

play12:06

mettre à jour les P web dont le contenu

play12:08

a changé enfin bref nous on a une

play12:09

version ch plus mais qui marche avec les

play12:12

principes les plus importants moi je

play12:13

suis plutôt content sur ce

play12:18

abonne-toi