Spark DataFrameをTFRecordsファイルに変換するために、Tensorflow RecordWriterクラスの純粋なJava/Scala実装を作成しようとしています。文書によると、TFRecordsで、各レコードは、次のようにフォーマットされます。Tensorflow TFRecordsデータファイルを書き込むための純粋なJava/Scalaコード
:uint64 length
uint32 masked_crc32_of_length
byte data[length]
uint32 masked_crc32_of_data
そして、CRCが現在
masked_crc = ((crc >> 15) | (crc << 17)) + 0xa282ead8ul
マスク、私は次のコードでグアバの実装にCRCを計算します
import com.google.common.hash.Hashing
object CRC32 {
val kMaskDelta = 0xa282ead8
def hash(in: Array[Byte]): Int = {
val hashing = Hashing.crc32c()
hashing.hashBytes(in).asInt()
}
def mask(crc: Int): Int ={
((crc >> 15) | (crc << 17)) + kMaskDelta
}
}
残りのコードは次のとおりです。
データエンコード部はドンです次のコードでE:
object LittleEndianEncoding {
def encodeLong(in: Long): Array[Byte] = {
val baos = new ByteArrayOutputStream()
val out = new LittleEndianDataOutputStream(baos)
out.writeLong(in)
baos.toByteArray
}
def encodeInt(in: Int): Array[Byte] = {
val baos = new ByteArrayOutputStream()
val out = new LittleEndianDataOutputStream(baos)
out.writeInt(in)
baos.toByteArray
}
}
レコードはプロトコルバッファで生成されます。
:import com.google.protobuf.ByteString
import org.tensorflow.example._
import collection.JavaConversions._
import collection.mutable._
object TFRecord {
def int64Feature(in: Long): Feature = {
val valueBuilder = Int64List.newBuilder()
valueBuilder.addValue(in)
Feature.newBuilder()
.setInt64List(valueBuilder.build())
.build()
}
def floatFeature(in: Float): Feature = {
val valueBuilder = FloatList.newBuilder()
valueBuilder.addValue(in)
Feature.newBuilder()
.setFloatList(valueBuilder.build())
.build()
}
def floatVectorFeature(in: Array[Float]): Feature = {
val valueBuilder = FloatList.newBuilder()
in.foreach(valueBuilder.addValue)
Feature.newBuilder()
.setFloatList(valueBuilder.build())
.build()
}
def bytesFeature(in: Array[Byte]): Feature = {
val valueBuilder = BytesList.newBuilder()
valueBuilder.addValue(ByteString.copyFrom(in))
Feature.newBuilder()
.setBytesList(valueBuilder.build())
.build()
}
def makeFeatures(features: HashMap[String, Feature]): Features = {
Features.newBuilder().putAllFeature(features).build()
}
def makeExample(features: Features): Example = {
Example.newBuilder().setFeatures(features).build()
}
}
そして、ここでは、私は私のTFRecordsファイルを生成するために、一緒に物事を使用する方法の例です。
val label = TFRecord.int64Feature(1)
val feature = TFRecord.floatVectorFeature(Array[Float](1, 2, 3, 4))
val features = TFRecord.makeFeatures(HashMap[String, Feature] ("feature"->feature, "label"-> label))
val ex = TFRecord.makeExample(features)
val exSerialized = ex.toByteArray()
val length = LittleEndianEncoding.encodeLong(exSerialized.length)
val crcLength = LittleEndianEncoding.encodeInt(CRC32.mask(CRC32.hash(length)))
val crcEx = LittleEndianEncoding.encodeInt(CRC32.mask(CRC32.hash(exSerialized)))
val out = new FileOutputStream(new File("test.tfrecords"))
out.write(length)
out.write(crcLength)
out.write(exSerialized)
out.write(crcEx)
out.close()
私はTFRecordReaderとTensorflowの内側になったファイルを読み込むしようとすると、私は次のエラーを取得する:
W tensorflow/core/common_runtime/executor.cc:1076] 0x24cc430 Compute status: Data loss: corrupted record at 0
CRCマスクの計算が正しくないか、javaとC++で生成されたファイル間のendianness が同じではないと思われます。
エラーメッセージはどこにありますか? –
テンソルフローでファイルを読み込むと、データが破損してエラーが発生します。 – jrabary
マスク関数が 'masked_crc =((crc >> 15)|(crc << 17))+ 0xa282ead8ul'で得られた結果と比較して正しくありません – jrabary