私はElasticsearchを初めて使い、ingestプラグインを使用しようとしています(私はそれについていくつかの質問を投稿しました)。私が何をしようとしているのか、私はFscrawlerを使用すべきであることが示唆されています。私はElasticsearch 5.5.1を使用しています.Fscrawler 2.3をインストールしました。私はJava 8.0.1をインストールしており、Javaディレクトリを指す環境変数 'JAVA_HOME'を作成しました。 Kibanaを使用して、私は次のように作成しました:fscrawlerは3つのjavascriptエラーを返します
PUT _ingest/pipeline/docs
{
"description": "documents",
"processors" : [
{
"attachment" : {
"field": "data",
"indexed_chars" : -1
}
}]
}
PUT myindex
{
"mappings" : {
"documents" : {
"properties" : {
"attachment.data" : {
"type": "text",
"analyzer": "standard"
}
}
}
}
}
Fscrawlerのための私の_settingsファイルに私はマイドキュメントフォルダにURLを設定しているとelaasticsearchセクション内に、私は.\fscrawler mydocs --loop 1
"index" : "myindex"
が含まれています
以下はコマンドの出力です。ここ
は、それはスクリーンショットが含まれますが、ログをコピー&ペーストしない方が良いですfscrawler
{
"name" : "docs",
"fs" : {
"url" : "w:\\Elasticsearch\\Docs",
"update_rate" : "15m",
"excludes" : [ "~*" ],
"json_support" : false,
"filename_as_id" : false,
"add_filesize" : true,
"remove_deleted" : true,
"add_as_inner_object" : false,
"store_source" : false,
"index_content" : true,
"attributes_support" : false,
"raw_metadata" : true,
"xml_support" : false,
"index_folders" : true,
"lang_detect" : false,
"continue_on_error" : false,
"pdf_ocr" : true
},
"elasticsearch" : {
"nodes" : [ {
"host" : "127.0.0.1",
"port" : 9200,
"scheme" : "HTTP"
} ],
"index" : "myindex",
"bulk_size" : 100,
"flush_interval" : "5s",
"username" : "elastic",
"password" : "changeme"
},
"rest" : {
"scheme" : "HTTP",
"host" : "127.0.0.1",
"port" : 8080,
"endpoint" : "fscrawler"
}
}
質問に_settingsファイルを配置しました。私は現在、 "パイプライン": "docs" 'を弾力的な検索に含めました。そして今、powershellは文句を言っていません。しかし、木場では、 'GET myindex/_search'を使って結果は得られません – bilpor