なるほど、SPIの制御までをサーバーを介して行うという仕様ですか。想像もできませんでした。てっきりファームウェアを無線でobnizに送信してその上で実行しているのかと思っていましたが全く違うのですね。なかなかユニークな基板ですね。ワイヤレスIOと思えば良いでしょうか。
だいたいイメージわかってきまして、今回の用途で使うには違うということはわかりました。
ありがとうございます。
津久井 陽司
@津久井 陽司
津久井 陽司のベストな投稿
Latest posts made by 津久井 陽司
-
RE: ArduCAMMini の画像取得時間についての質問
-
RE: ArduCAMMini の画像取得時間についての質問
@Yuki-Sato said in ArduCAMMini の画像取得時間についての質問:
Arduino+Aruducamで撮影したのをuartでobniz経由で取得する方法
Arduino使ったことはないですが、UART、SPIの速度をフルに出せないということはないように思います。DMAもあるでしょうし。カメラのドライバがきちんとできていればインターフェースの速度はフルに出せるのではないでしょうか。ただ、UARTで115.2kbpsとかだとさすがにJPEG動画は厳しいかと思います。
ちなみに今回のサンプルは一方向の送信ですが、それでもフレームレートは落ちてしまうのでしょうか。クラウドが間に入るということなのでなんとなく、そういうものかと思いますが、実際にはクラウドを介した実装を経験したことがないので、あまりピンと来ない部分もあります。単に640x480のJPEGをインターネットに流すだけでここまで遅いというのも感覚的には違和感がありまして、obnizくらい小さい基板だとそのWifiの実効帯域が小さいのではなどと思ったりしてみたり。すみません、古いエンジニアなので。最近はそんなことはないのでしょうが。
いずれにせよサーバー経由だと遅延が出てよろしくないので、obnizは諦めた方が良いと思っていまして単なる興味本意の感想です。すみません。
Raspberry Piを調べてみましたが私の要求はさっくりいけそうですのでそちらを試すことになりそうです。
-
RE: ArduCAMMini の画像取得時間についての質問
ご回答ありがとうございます。
解像度の変更も既に試みていますが、160x120の解像度でも満足できるフレームレートは得られていません。カメラの性能をある程度使えるようにしたいというのがやりたいことになります。
pythonはクラウドを経由し、obniz.jsはlocal connectを使えるということですね。
python の豊富な画像処理ライブラリを使いたいので、画像取得はjavascriptを使い、画像処理はpythonを使うというシステムも一つの選択肢として検討してみます。ただ、画像キャプチャ自体にかかっている時間も短縮が必要ですので、これが今は実現できていないということであれば、そもそもobnizを使うということ自体を見直した方が早いかもしれませんね。カメラのデータシートを見てドライバレベルの実装をするというのはなかなか時間がかかるので最終手段にしたいところです。
やりたいことは、ArudCAMミニのようなコンパクトサイズのカメラモジュールから15fps以上のレートで画像をできるだけ簡単に取得して、pythonで画像処理したいですが、ラズベリーパイなどを使った方が早いのかもしれませんね。
検討し直します。
-
ArduCAMMini の画像取得時間についての質問
https://github.com/obniz/obniz-python-sdk/blob/master/obniz/parts/Camera/ArduCAMMini/README-ja.md
を参考にArduCAMMini のサンプルソースを試していますが、データ取得の時間が非常に大きいように思います。短縮する方法があれば知りたいです。from obniz import Obniz import asyncio import time class ElapsedTime: def __init__(self): self.t0 = 0 def record(self, subject): t1 = time.time() print("elapsed_time[", subject, "]:", t1-self.t0) self.t0 = t1 async def onconnect(obniz): elapsed_time = ElapsedTime() elapsed_time.record("init") cam = obniz.wired("ArduCAMMini", { "cs": 0, "mosi": 1, "miso": 2, "sclk": 3, "gnd": 4, "sda": 6, "scl": 7, "spi_frequency": 1000000 }) count = 0 await cam.startup_wait() cam.set_size('640x480') await obniz.wait(1000) while True: print("-------->", count) count+=1 cam.flush_fifo() cam.flush_fifo() cam.start_capture() while True: if await cam.is_capture_done_wait(): break elapsed_time.record("point1") data = await cam.read_fifo_wait() elapsed_time.record("point2") print("length", len(data)) obniz = Obniz(OBNIZ_ID_HERE) obniz.onconnect = onconnect loop = asyncio.get_event_loop() loop.run_forever()
まず、連続で画像取得するにはこのようにflush_fifo(), start_capture() を毎回呼ぶことで正しいでしょうか。バーストのようなイメージでこの両関数は最初の1回だけ呼ぶようにもしてみましたが、正しいJPEG画像が得られませんでした。
このときの実行結果は以下の通りでした。
elapsed_time[ init ]: 1582947734.134159 --------> 0 elapsed_time[ point1 ]: 2.937614917755127 elapsed_time[ point2 ]: 2.2012341022491455 length 18436 --------> 1 elapsed_time[ point1 ]: 0.2885429859161377 elapsed_time[ point2 ]: 2.251394748687744 length 18436 --------> 2 elapsed_time[ point1 ]: 0.37395405769348145 elapsed_time[ point2 ]: 2.2908759117126465 length 18436 --------> 3 elapsed_time[ point1 ]: 0.3581712245941162 elapsed_time[ point2 ]: 2.2948689460754395 length 18436 --------> 4 elapsed_time[ point1 ]: 0.2237389087677002 elapsed_time[ point2 ]: 2.193325996398926 length 18436 --------> 5 elapsed_time[ point1 ]: 0.21819806098937988 elapsed_time[ point2 ]: 2.2313148975372314 length 18437
point1 はOV2640内でのfifoに書き終えるまでの時間かと思いますが、ネットで調べたOV2640の仕様によるとSVGA 30 fpsという記載があるのでだいぶ遅いように思います。JPEG出力の場合は変換に時間がかかって速度が落ちるということなのかもしれませんがそれにしても3〜4fpsというのは遅いように思います。
point2はread_fifo_wait()の時間ですので、ドキュメントから解釈するとカメラのFIFOに入っている撮影されたデータを取り出す時間になるかと思います。2秒以上かかっているので非常に遅いですが、カメラのFIFO 読み出しに加えて、obnizからWifiを経由してPCにデータが到達するまでの時間ということになるでしょうか。
トータルで3〜4fpsを目標にしたいのですが、何か良い方法があれば教えて欲しいです。