core-image

    2

    1答えて

    CIColorMapCIFilterは、CIImageを入力として受け取ります。これは、動的に(例えばCILinearGradientのような)別のCIFilterを使用して、その入力画像を生成するために理にかなっているが、カラーマップフィルタにフィルタの結果を提供することは、次のように次のエラーになります: [CIColorMap outputImage]必要入力グラディエントイメージが有限であ

    0

    1答えて

    が含まれているにもかかわらず、CIFilterのシンボル私はTools.m上のQRコードを印刷するために、これらのコードを持っている: #import <CoreImage/CoreImage.h> ... + (UIImage *)renderQRCodeFrom:(NSString *)source withImageViewFrameSize:(CGSize)imageViewFrame

    1

    1答えて

    私はSwift3のコードでこの機能を持っています。実際にはAppleのサンプルコードからほとんど文字通り翻訳されています。 マイアプリでは、カメラからのライブフィードのキャプチャに由来するsampleBuffersを処理します。 この関数は、正しくCMSampleBufferから画像を作成して返します。 正常に動作しますが、アプリケーションがクラッシュするまでメモリは増加し続けます。 私は、いくつ

    0

    1答えて

    Core Imageを使用して画像を二値化することができますか? 私はOpenCVのとGPUImageでそれを作ったが、それが可能

    1

    1答えて

    iOSの10.2スウィフト3.0 へのObjective C。 SOのポスターで修正されたコード! - (void)handlePinchGesture:(UIPinchGestureRecognizer *)gestureRecognizer { if([gestureRecognizer state] == UIGestureRecognizerStateBegan) { // Rese

    1

    1答えて

    CIDetectorクラスを使用して長方形を検出したいが、このクラスのインスタンスを作成できません。 private lazy var rectangleDetector: CIDetector? = { let options: [String : AnyObject] = [ CIDetectorAccuracy: CIDetectorAccuracyHigh,

    2

    1答えて

    私は、線形空間に入ることなくRAW画像の全体的なサイズを縮小することについて質問します。理由は、私は非常に大きなメガピクセルの画像(60メガピクセル以上)を編集しようとしていますが、iPadやiPhoneのスクリーンのようなもので編集するときは、フルイメージは必要ありません。編集が完了したら、元のファイルを保存します。保存のスピードは問題ではありません。編集をプレビューしている "作業中の"画像で

    0

    1答えて

    フィルタをピクチャに追加するコードを記述していました。私は、フィルタを選択するために、collectionViewをクリックすると、ここでコード func applyFilter(index: Int){ print("Applying Filter....") //let context = CIContext() // 1 //below two lin

    0

    1答えて

    写真から切り取った画像を取得しようとしています。今のところ、それは画像の元の解像度を変更するため - (UIImage *)scaleAndRotateImage:(CIFeature *)ciFeature image:(UIImage *)image { static int kMaxResolution = 640; CGImageRef imgRef = image.

    0

    2答えて

    私はMatlabでプロトタイプ化したアルゴリズムを実装しています。私は2つの画像のRGB値をピクセルごとに追加する必要があります。しかし、Core Imageのブレンドフィルタのどれもこれを行うことができないようです。カスタムフィルタを実装するのは難しいことではありませんが、2つの画像を追加する方法はありますか?