About: Scrapy     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : yago:Software106566077, within Data Space : dbpedia.org associated with source document(s)
QRcode icon
http://dbpedia.org/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FScrapy

Scrapy (/ˈskreɪpaɪ/ SKRAY-peye) is a free and open-source web-crawling framework written in Python and developed in Cambuslang. Originally designed for web scraping, it can also be used to extract data using APIs or as a general-purpose web crawler. It is currently maintained by (formerly ), a web-scraping development and services company. Some well-known companies and products using Scrapy are: Lyst, Parse.ly, , Sciences Po Medialab, Data.gov.uk’s World Government Data site.[1]

AttributesValues
rdf:type
rdfs:label
  • Scrapy (Software) (de)
  • Scrapy (el)
  • Scrapy (es)
  • Scrapy (fr)
  • Scrapy (it)
  • Scrapy (ja)
  • 스크래피 (웹 프레임워크) (ko)
  • Scrapy (pt)
  • Scrapy (en)
  • Scrapy (pl)
  • Scrapy (ru)
  • Scrapy (zh)
rdfs:comment
  • Scrapy es un framework de scraping y crawling de código abierto, escrito en Python. Actualmente está mantenido por , una empresa que ofrece productos y servicios de web-scraping. (es)
  • 스크래피(Scrapy, /ˈskreɪpi/ SKRAY-pee)는 파이썬으로 작성된 오픈소스 웹 크롤링 프레임워크이다. 웹 데이터를 수집하는 것을 목표로 설계되었다. 또한 API를 이용하여 데이터를 추출할 수 있고, 범용 웹 크롤러로 사용될 수 있다. Scrapy는 웹 스크래핑 개발 및 서비스 회사 에 의해 유지된다. Scrapy 프로젝트는 "spiders"를 중심으로 개발되었다. "spiders"는 여러 기능이 내장된 크롤러이다. 장고와 같은 철학인 중복배제를 따르고 있는 프레임워크이다. Scrapy는 개발자들이 코드 재사용성을 높일 수 있도록 도와주어, 큰 규모의 크롤링 프로젝트 개발을 쉽게 할 수 있도록 해준다. 또한 Scrapy는 개발자들이 크롤링하려는 사이트의 동작을 테스트할 수 있도록 웹 크롤링 셸을 제공한다. Scrapy는 Lyst, , , Medialab, ’s World Government Data site.[1] Archived 2018년 8월 16일 - 웨이백 머신 등등의 기업에서 사용되고 있다. (ko)
  • Scrapy(/ˈskreɪpi/ SKRAY-pee是一个用Python编写的自由且开源的网络爬虫框架。它在设计上的初衷是用于爬取网络数据,但也可用作使用API来提取数据,或作为生成目的的网络爬虫。该框架目前由网络抓取的开发与服务公司维护。 Scrapy项目围绕“蜘蛛”(spiders)建构,蜘蛛是提供一套指令的自包含的爬网程序(crawlers)。遵循其他如Django框架的一次且仅一次精神,允许开发者重用代码将便于构建和拓展大型的爬网项目。Scrapy也提供一个爬网shell,开发者可用它测试对网站的效果。 使用Scrapy的知名公司和产品有:Lyst、、、Sciences Po Medialab、的世界政府数据网站等。 (zh)
  • Scrapy ([skrɛɪ̯pi̯]) ist ein „Free and Open Source“-Webcrawling- und Scraping-Framework, das in der Programmiersprache Python geschrieben wurde. Ursprünglich wurde Scrapy für Webscraping designt, jedoch kann es als Allzweck-Webcrawler oder auch zur Extraktion von Daten mittels API genutzt werden. Gegenwärtig wird es von der Firma Zyte Limited (früher Scrapinghub Ltd.) betreut. Einige Unternehmen und Produkte, die Scrapy nutzen, sind: * Lyst * Parse.ly * Sayone Technologies * Sciences Po Medialab * Data.gov.uk (de)
  • Scrapy est un framework open-source permettant la création de robots d'indexation. Développé en Python, il dispose d'une forte communauté, offrant de nombreux modules supplémentaires. La première version stable a été publiée en septembre 2009. Depuis, l'équipe de développement publie régulièrement de nouvelles versions dans le but d'enrichir le framework en fonctionnalité. L'objectif principal est d'obtenir une API stable pour la version 1.0. Le framework dispose d'une communauté active, et un support commercial est effectué par plusieurs entreprises. (fr)
  • Scrapy (/ˈskreɪpaɪ/ SKRAY-peye) is a free and open-source web-crawling framework written in Python and developed in Cambuslang. Originally designed for web scraping, it can also be used to extract data using APIs or as a general-purpose web crawler. It is currently maintained by (formerly ), a web-scraping development and services company. Some well-known companies and products using Scrapy are: Lyst, Parse.ly, , Sciences Po Medialab, Data.gov.uk’s World Government Data site.[1] (en)
  • Da non confondersi con Scrapie Scrapy (/ˈskreɪpaɪ/ SKRAY-PEYE ) è un framework open source per web-crawling scritto in Python. Originariamente creato per web scraping può essere anche utilizzato per estrarre dati usando delle API oppure come un web-crawler general-purpose. È mantenuto da , uno sviluppatore di web-scrapers e compagnia di servizi. (it)
  • Scrapy([ˈskreɪpaɪ] SKRAY-peye)はPythonで開発されたフリーでオープンソースのクロールフレームワーク。元々はウェブスクレイピング用に設計されたが、 APIを使用したデータの抽出や、汎用のクローラーとしても使用できる。現在、ウェブスクレイピングの開発およびサービス会社であるScrapinghub Ltd.で管理されている。 Scrapyプロジェクトアーキテクチャは、「スパイダー」を中心に構築されている。DjangoなどのフレームワークをDRY他の精神を踏襲し、開発者がコードを再利用できるようにしている。さらに、サイトの動作に関する想定をテストするために開発者が使用できるWebクロールシェルを提供する。Scrapyを使用している有名な会社と製品には、Lyst、Parse.ly、Sayone Technologies、Sciences Po Medialab、Data.gov.ukの世界政府データサイトがある。 (ja)
  • Scrapy ( /ˈskreɪpaɪ/ ) é um framework de web-crawling gratuito e código aberto desenvolvido em Python. Originalmente idealizado para web scraping, também pode ser utilizado para extração de dados usando APIs ou como web crawler de forma mais abrangente. Atualmente é mantido pela Zyte (antiga ) uma empresa de desenvolvimento e serviços relacionados a web-scraping. Algumas empresas, produtos e projetos bem conhecidos que usam o Scrapy são: Querido Diário, Lyst, , , Sciences Po Medialab, ’s World Government Data site.[1] (pt)
  • Scrapy – otwartoźródłowy szkielet do tworzenia aplikacji napisany w języku programowania Python i służący do pisania robotów internetowych, które przeszukują strony internetowe i wydobywają z nich określone dane. Aby wykorzystywać framework potrzebny jest Python w wersji 2.7 lub 3.5+ (implementacja CPython) albo 5.9 (implementacja PyPy). (pl)
  • Scrapy (читается как "скрэй-пай") – это бесплатный фреймворк для веб-краулинга находящийся в открытом доступе, который написан на языке программирования Python. Изначально задумывался для веб-скрейпинга, однако также может использоваться для извлечения информации используя API или же как веб краулер общего применения. В настоящее время фреймворк обслуживается компанией Scrapinghub Ltd., которая разрабатывает и предоставляет услуги в сфере веб-скрейпинга. (ru)
differentFrom
foaf:name
  • Scrapy (en)
name
  • Scrapy (en)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/Scrapy_logo.jpg
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (62 GB total memory, 60 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software