渋谷駅のあちこちにAIカメラを設置して学習させるようです。
もちろん警備カメラですから、危険察知や急病対応に使います。
面白いというのかちょっと怖いのが、「通常と異なる“違和感”」をセンサに学習させているところで、まあ予知、予防活動に使いたいということなのですが、何をもってAIは危険を察知するのでしょうか。
急病の症状がありそうな方を検知して知らせるのはイメージできるのですが、危険行動をしそうな人となると⁈
しかしおかしな行動をとる人のパターンをたくさん学習すると、危険行動に至るパターンの傾向がわかるようになるのでしょうか。
それは知りたいようで、知りたくないような、なんとも全体国家のやりそうな不穏な感じを伴うのは私ぐらいなんでしょうか?
安全安心への予防活動として健全な活用をしていただきたいです。
【参考サイト】東急電鉄、渋谷駅で防犯カメラ12台のAI画像解析による警備オペレーションの実証実験
東急セキュリティは、東急電鉄渋谷駅(東横線・田園都市線)において、AI画像解析による警備オペレーションの実証実験を開始する(図1)。線路内への侵入、ホームや階段での転倒、危険・破壊行為などへの早期検知を実証する。AI画像解析の対象カメラは12台で予定する。
AI画像解析に、異常やその予兆を防犯カメラ映像から検知するソフトウェア「icetana」(マクニカが提供)を活用する。駅構内での乗客同士のトラブルや急病人・異常行動の予兆などを、画像解析技術で発見する。