日時:2015年6月12日(金)14:45~16:15
場所:京都大学 デザインファブリケーション拠点(研究実験棟151室)
デザインファブリケーション拠点のアクセス
講師:Andreas Girgensohn氏(Distinguished Scientist, FXPAL, USA)
主催: 京都大学デザイン学大学院連携プログラム
問合わせ先:kumiyo.nakakoji[at]design.kyoto-u.ac.jp([at]を@に変えてください)
中小路 久美代(京都大学 学際融合教育研究推進センター デザイン学ユニット)
Abstract:
People have been creating and consuming vast quantities of photos and videos. Enabling users to work with these multimedia objects has been a primary research focus at FX Palo Alto Laboratory. An interdisciplinary team of designers, computer scientists, and human-computer interaction researchers has explored and created numerous systems that present information to support a wide variety of user tasks. Those systems support image browsing and composition, accessing digital information from printed pages, video surveillance, video summarization, and navigating hyper-linked videos. There are many design challenges that such systems must address for people to use them easily without being overwhelmed with information. The talk will illustrate key techniques such as video keyframes, timelines, image layout, and others.
Speaker Bio:
Andreas Girgensohn works in the areas of multimedia, human-computer interaction, and web-based technologies. His research informs the creation of systems that make multimedia objects useful, accessible and usable, and that improve communication and collaboration among people. Recent projects use hypervideo to support time-shifted meetings, link printed content to digital media, and support faceted browsing of photo libraries and document collections.
In 2008, Andreas was named ACM Distinguished Scientist in recognition of his accomplishments. He has been a researcher at FX Palo Alto Laboratory since 1996; most recently as a Distinguished Scientist. Previously, he worked at NYNEX Science & Technology. Andreas received a PhD in computer science from the University of Colorado at Boulder. He has published extensively in conferences and journals in multimedia, HCI, document management, and CSCW.
講演報告:
参加者:12名(内デザイン学履修者4名)
デジタルカメラや携帯端末に搭載されたカメラを常時携帯するようになり、人々は日常的に画像や動画を撮影するようになっている。FX-PAL (Fuji-Xerox Palo Alto Research Laboratory)のGirgensohn氏による本講演では、このように生成される大量のマルチメディアデータをユーザが扱うためのインタラクション技術に関わる最新の研究成果が、デモを交えて解説された。
ご講演では、Girgensohn博士がこれまで約10年間にわたって自ら研究開発に関わって来られた多くのシステムが紹介された。データのタグづけを介して検索するMediaGLOW、自動顔認識により画像から自動的に顔部分のみを抽出してコラージュ画像を生成するStained Glass、画像オブジェクトに透明なアイコンをタグとして埋め込むEMM(Embedded Media Marker)、監視カメラ映像で自動的に人物を認識するDynamic Object Tracking System、レクチャーを記録した映像データから、スライドの抽出、テキスト認識を介して映像の自動インデキシングを行うTalkminer、漫画のコマ割りを活用した自動ビデオ要約をするManga Video Summary、撮影時の画面にあらかじめ指示した部位を表示し狙う構図で撮影を促すNudgecam、遠隔ミーティング時のコンテンツ共有を支援するMixMeet、そして最後に、ビデオ会議を記録し、再生時のディスカッションを重畳して記録、再生することで、時間差のあるミーティングを支えるHyperMeetが紹介された。
マルチメディアデータからのキーフレーム抽出技術や自動レイアウト技術、イベント抽出技術といった要素技術研究の側面と、ユーザの利用状況やシナリオをベースとした検索とブラウジングの融合といったインタラクションデザインの側面の両面からのご講演は、情報科学を専攻する学生のみならず、他分野の専攻の学生にも非常に分かり易いものであった。ご講演の質疑応答時のディスカッションにおいては、米国(シリコンバレー)の企業において研究することとアカデミアで研究することの違いといった点にも触れていただき、非常に興味深いものとなった。