私は様々なブログから、最も近いことにthis oneを学びました。近い将来、Apache SparkはJavaヒープからキャッシュされます(sun.misc.Unsafe
)。私が見つけられなかったのは、そのデータが、CまたはC++で解釈可能なバイト単位のよく知られたレイアウトを持つかどうかということです。誰か知っていますか?もしそうなら、それは「あなたの責任で使用する」仕様またはサポートされるAPIでしょうか?Sparkのデータがオフヒープキャッシュされる場合、バイトレベルの仕様ですか?
私は、JNIをコピーしたり、外部プロセスや(同等に)PySparkにシャットダウンすることなく、現在Sparkで使用できない高度に最適化されたC++ライブラリを持っていることを尋ねます。コピーしないで生のポインタに直接C++コードを実行できるのは素晴らしいことです。 (読み取り専用、もちろんです)
これを許可する計画があるかどうかは誰にも分かりますか? SparkはScala/Java、Python、およびRをサポートしています。 C/C++を追加するといいでしょう。
これは[dev list](http://apache-spark-developers-list.1001551.n3.nabble.com/)に適しています。 – zero323
StackOverflowのフォーマットに合わないため、この質問を削除する必要があると感じたら、ここに投稿しなくてもその開発者リストには向かないでしょう。私はそれがSOメンバーにとって有益だという主張です。 –
私は特に間違っているとは思わない。今後の機能についての質問は、何かが実際に実装され、統合され、解決されない限り純粋に意見に基づいています:)しかし、私はURLが有用であることが判明してうれしいです。 – zero323