2010-12-08 4 views
0

アーティクル(またはアーティクルのコレクション)をPDFにレンダリングするためにMediawiki Collection Extensionおよびmwlibをインストールしました。これは、最大20の記事を含む単一の記事やコレクションでは非常に効果的です。PDFへの大量のアーティクルのレンダリングがmwlibのMediaWikiで失敗する

私は大きなコレクションをレンダリングするときは、(レンダリングが成功した場合、100%までカウント)解析ページのパーセンテージカウンタが1%で立ち往生しています。

mwrender.logを見ると、エラー32 - Pipe Brokenエラーが表示されます。インターネットを検索すると、受信プロセス(パイプの後の部分)がクラッシュするか応答しないことによってエラー32が発生する可能性があることがわかります。

ここからは進めません。私はどこでもっと手がかりを探すべきですか?死んでいるMySQLサーバへの接続になるのでしょうか?

すべてのアプリケーションは、Turnkey Linux Mediawiki VM上で実行されています。

答えて

0

私はPDF Export Extensionを使用することだし、それは20件の以上の記事で動作します。多分それを試してみませんか?

+0

私はCollectionエクステンションと組み合わせて使用​​します。非常に大きなコレクション(70+)でも成功しますか? – Docbuilder

+0

私はCollection Extensionが実際にPDF Writer Extensionを使用していると思います。 –

+0

私は速すぎました。私はPDFエクスポートを使用しないで、私は2年前にそれを試してみました。私は2.4バージョンを試すことができます。 – Docbuilder

0

私は自分自身で問題を把握しました。

Mw-renderは、コレクション内のすべてのアーティクルに対して並列要求を生成します。これは、50ページの収集のために、50の同時要求が行われることを意味する。 Apacheはこれを処理できますが、MediaWikiのMySQLデータベースでは処理できません。

--num-threads = NUM​​オプションを使用すると、mw-render spawnsのスレッド数を制限することができます。私はmw-serveがmw-renderを呼び出す場所を見つけることができませんでしたので、Apacheが生成できるスレッドの最大量(worker)を10に制限しました。

mw-renderは、このアプローチはうまくいった。

4分以内に185件の記事を含むPDFをレンダリングした場合、結果のPDFには300+ページがあります。

関連する問題