字幕表 動画を再生する
The goal of the first three units in this course is to build a Web crawler
このコースの最初の3レッスンにおける目標は 我々の検索エンジンで
that will collect data from the Web for our search engine.
Webからデータを集める Webクローラを作成することです
And to learn about big ideas in Computing by doing that.
またそうすることで コンピューティングにおけるアイデアを学ぶためです
In Unit 1, we'll get started by extracting the first link on a web page.
レッスン1は Webページに最初のリンクを抽出することから始めます
A Web crawler finds web pages for our search engine
我々の検索エンジンでは シードページから開始して別のページを見つけるために
by starting from a "seed" page and following links on that page to find other pages.
そのページのリンクを進むことで WebクローラがWebページを見つけます
Each of those links lead to some new web page, which itself could have links that lead to other pages.
1つ1つのリンクが新しいWebページに続いていて そのページが別のページに続くリンクを持っています
As we follow those links, we'll find more and more web pages
このようなリンクをたどることで 検索エンジンに使用するデータコレクションを作り上げ
building a collection of data that we'll use for our search engine.
さらにたくさんのWebページを見つけることができます
A web page is really just a chunk of text that comes from the Internet into your Web browser.
実際Webページはインターネットから Webブラウザへやってくる単なるテキストの塊です
We'll talk more about how that works in Unit 4.
レッスン4でその機能の仕組みを さらに解説していきます
But for now, the important thing to understand is that
ここではリンクはWebページにおいて特別な種類の
a link is really just a special kind of text in that web page.
テキストであるということを理解することが重要です
When you click on a link in your browser it will direct you to a new page.
ブラウザでリンクをクリックすると 新たなページへ移動します
And you can keep following those links as a human.
そして人力で このようなリンクをたどり続けることができます
What we'll do in this Unit is write a program to extract that first link from the web page.
このレッスンで行うことはWebページからの 最初のリンクを抽出するプログラムを書くことです
In later units, we'll figure out how to extract all the links and build their collection for our search engine
そのあと検索エンジンにおけるコレクションの築き方や すべてのリンクの抽出方法を考えていきます