Japan 公式ブログ
Google の企業向けソリューションに関する公式な情報やユーザーの事例などを、いち早く皆さんにお届けします。
GCP に高速かつ容易につながる Partner Interconnect の提供開始
2018年4月25日水曜日
Google では、お客様のデータセンターと Google Cloud を繋ぐために、以下の 3 つの方法を用意しています。1 つ目は、パブリックインターネット上で IP-Sec を確立しプライベート接続を行う
Cloud VPN
、次に直接物理的な接続を用意する
Dedicated Interconnect
、そして 3 つ目が今回新たに提供を開始する
Partner Interconnect
です。Partner Interconnect は、
パートナー事業者
の回線を介して最寄りの Google Cloud Platform (GCP) リージョンとの広帯域プライベート接続が可能です。
Partner Interconnect は、Dedicated Interconnect と同様に GCP とのプライベート通信を保ちながら、常時 10Gbps の専用回線を必要としないような企業において便利にお使いいただけます。さらに、GCP に接続する為のコロケーション施設や Google Cloud リージョンから地理的に離れた場所にデータセンターを持つ企業にとっても、パートナー事業者の回線を利用した閉域接続を可能にします。
広がる接続方法の選択肢
Partner Interconnect では、世界中から参加したパートナーがお客様の施設から最寄りの Google コロケーション施設までのプライベート接続をサポートしています。お客様にとって最適な場所から、50Mbps から 10Gbpsまでの間で用途に合わせた帯域幅を自由に選択することができます。
Partner Interconnect パートナー
日本においては、株式会社アット東京、エヌ・ティ・ティ・コミュニケーションズ株式会社、KDDI株式会社、ソフトバンク株式会社、株式会社野村総合研究所(五十音順)が Partner Interconnect に対応します。すでに世界各国のパートナーにおいては、Google Cloud に接続するために十分なインフラ整備が完了しており、企業の皆さまにすぐお使いいただける環境を整えました。Partner Interconnect は、お客様のデータセンターから GCP への接続を最小限の労力で可能にするワンストップ ソリューションです。
Google ネットワークを活用する利点
Google は、これまでに 10 年以上の歳月をかけ、GCP ネットワークを構築してきました。増加する顧客ニーズにあわせて、多数のコロケーション施設を世界中に配置し、ネットワークへの
継続的な投資
も行っています。Partner Interconnect は、これら GCP ネットワークおよび GCP のグローバル インフラストラクチャへの接続を容易にし、ご活用いただく機会の拡大につながるものと考えています。
GCP ネットワークに接続すると、Google のバックボーン ネットワーク上にあるデータセンターへのシームレスなアクセスを可能にする
GCP VPC
といった高度なネットワーク技術がご利用いただけます。グローバル VPC は、単一の GCP リージョンへ接続するだけで、お客様が様々なリージョンへデプロイしたシステムへのプライベート接続を可能にします。Interconnect は、これらの技術をパートナーが提供する回線に接続するだけでお使いいただけるようにします。必要な処理はすべてバックグラウンドで行われ、各 GCP リージョンへの専用回線は必要ありません。
Partner Interconnect は、今後、数週間で利用可能になります。詳細については
Cloud Interconnect ページ
をご覧ください。サービスプロバイダーとして Google Cloud への接続の提供にご興味をお持ちの場合は、Google Cloud 担当者までお問い合わせください。
Google Cloud Next '18 in Tokyo 開催決定 - クラウドの最先端を体験する。
2018年3月7日水曜日
Google Cloud は、2018 年 9 月 19 日 (水) 、20 日 (木) の 2 日間、
Google Cloud Next '18 in Tokyo
を開催します。今年の Next は『
クラウドの最先端を体験する
』をテーマに、昨年からさらに規模を拡大して、東京プリンスホテル、ザ・プリンスパークタワー東京の 2 会場を使用して実施する予定です。
さまざまな IT の専門家、技術者、経営者、そして Google のエキスパートたちと出会い、課題解決に向けたアイデアを共有しませんか? 機械学習やセキュリティのエキスパートから、最先端の技術を学びませんか?
なお今年は、G Suite および Google Cloud Platform の活用を通して得た専門的知見や新たなナレッジを、セッションの場で共有してくださる方を募集します。応募期間は、2018 年 3 月 7 日(水)~ 2018 年 4 月 16 日(月)までとなりますので、セッションスピーカーを希望される方は
こちら
から応募をお願いします。
6 月頃を目処に、イベント登録を開始する予定です。
こちら
のページの、『最新情報を受け取る』ボタンからご登録いただくと、Next ’18 や Google Cloud 製品の最新情報などを随時お受け取りいただけます。
イベント名: Google Cloud Next '18 in Tokyo
公式ハッシュタグ: #GoogleNext18
日 程: 2018 年 9 月 19 日(水)・20 日(木)
開 場: 8:30 (予定)
基調講演: 9:30 〜 11:30 (予定)
セッション: 12:00 〜 18:30(予定)
会 場:
ザ・プリンス パークタワー東京
〒105-8563 東京都港区芝公園 4 - 8 - 1
東京プリンスホテル
〒105-8560 東京都港区芝公園3丁目3−1
お問い合わせ先
Google Cloud Next Tokyo '18 運営事務局
googlecloud-next18-tokyo@google.com
Cloud TPU ベータ版 提供開始
2018年2月13日火曜日
* この投稿は米国時間 2 月 12 日、Product Manager である John Barrus と Zak Stone によって投稿されたもの(投稿は
こちら
)の一部を抄訳したものです。投稿全文の翻訳については、後日
GCP Japan Blog
に掲載します。
本日、
Cloud TPU
ベータ版を
GCP
で公開しました。
Cloud TPU (Tensor Processing Unit)は、TensorFlow で実装された特定の機械学習ワークロードの高速化及びスケールアップのために、Google が一からデザイン・開発した機械学習用のアクセラレータです。
今回提供を開始した Cloud TPU は、1 つのユニットあたり最大 180 TFlopsの浮動小数点演算と 64 GB の超高帯域幅メモリを搭載しています。これらのユニットは、複数のユニットと接続できるように設計されており、独自の超高速ネットワークを介してペタフロップス級の機械学習向けスーパーコンピューター「TPU pods」としても利用できます。TPU pods は、年内に Google Cloud Platform の製品として提供する予定です。
Cloud TPU 利用のお申込み
Cloud TPU は、多くのお客様より高い関心を頂いておりますため、多くのご要望にお応えするためにも、ご興味のあるお客様は、用途を添えて
こちら(英語) から
お申し込みください。課金方法は、秒単位(米ドル 6.50 /Cloud TPU /時間)です。
Cloud TPU の詳細は、2018 年 2 月 27 日(米国時間)に実施する
Cloud TPU webinar
(英語) にご参加ください。
株式会社サイバーエージェントの導入事例:動画広告クリエイティブソリューション『VS』に Google Cloud Vision API を導入。一部のタグ付けを自動化し効率的に新たなサービスの展開を実現
2017年6月15日木曜日
Google Cloud Next '17 in Tokyo ブレイクアウトセッションにご登壇の株式会社サイバーエージェント。
「AbemaTV」や「アメーバブログ」を展開し、国内インターネット広告業界でトップシェアを誇る同社において人工知能のアドテクノロジー活用を図る研究組織、「AI Lab」が分析開発に携わり「
Google Cloud Vision API
」を活用。
ブランディング広告をターゲットにした動画広告クリエイティブ分析ソリューション『VS(バーサス)』において、ブランドリフトに寄与する構成要素を「
Google Cloud Vision API
」の動画自動解析機能を利用し、カテゴリの物体をラベル検出しています。企業・サービスロゴの位置やサイズ、コピー要素、背景要素、キャスト要素など、約 100 種類のラベルにこれを集約。その組み合わせによって広告の効果を評価しているのです。
詳しくは、VS の開発ストーリーでご紹介いたします。
サイバーエージェント Google Cloud Vision API 導入事例
また、サイバーエージェント の
導入事例 PDF
も合わせてご覧ください。
GCP のその他の導入事例は
こちら
をご覧ください。
任天堂株式会社の導入事例:ビッグタイトル『Super Mario Run』のバックエンドを支えた Google App Engine
2017年6月14日水曜日
昨年末にリリースされ、任天堂初のスマートフォン向け本格ゲームアプリとして注目された『Super Mario Run(スーパーマリオ ラン)』。その背後では、文字通りケタ違いのアクセスをさばく強力なバックエンドが稼働していました。任天堂、DeNA そして Google が一丸となって取り組んだ、その開発ストーリーをお届けします。
■利用している Google Cloud Platform サービス
Google App Engine
Google BigQuery
Google Cloud Dataflow
Google Cloud Datastore
Google Cloud Pub/Sub
Google Cloud Storage
Google Stackdriver
(Logging, Monitoring, Trace, etc)
など
■
任天堂株式会社
1980 年代に『ファミリーコンピュータ』によって、世界中にビデオゲームブームを巻き起こし、その後も家庭用ゲーム機市場を牽引し続けている老舗エンタテインメント企業(1889 年創業)。マリオやドンキーコング、ゼルダの伝説、どうぶつの森など、強力な IP(知的財産)を多数保有していることでも知られている。
アプリの将来に備え、バックエンドをマネージドサービスに移管
2015 年 3 月 17 日に突如発表され、世界中のゲームファンに衝撃を与えた任天堂のスマートデバイス進出。そのゲームアプリ市場で絶大な実績とノウハウを持つ株式会社ディー・エヌ・エー(以下、DeNA)との協業(業務・資本提携)によって、マリオなど、任天堂の誇る世界的 IP をスマートデバイス向けにも展開していくことが大々的に発表されました。相互の強みを活かす形で、ゲーム開発や、それを安定動作させるバックエンドを共同で開発していくことになったのです。そして、そのきっかり 1 年後となる 2016 年 3 月 17 日には、任天堂初のスマートデバイスアプリとなる『Miitomo(ミートモ)』をリリース。続いて、12 月にはiOS版『Super Mario Run』(Android 版は 2017 年 3 月リリース)が、2017 年 2 月には『ファイアーエムブレム ヒーローズ』が配信開始されています。今後も 1 年に 2~3 本のスマホアプリを投入していく予定ということです。
投入する全てのタイトルがそれぞれビッグタイトルとなることが期待されている任天堂ゲームアプリにおいて、それを支えるバックエンドに求められる品質は並大抵ではありません。今回、DeNA 側のチームを率いて、このプロジェクトに参画した株式会社ディー・エヌ・エー オープンプラットフォーム事業本部 システム開発部 菅原賢太さんは、次のように当時を振り返ります。
「2016 年春に『Miitomo』をリリースした際は、オンプレミスに近い形でバックエンドを構築していたのですが、それだとどうしても運用にリソースを奪われてしまい、効率的な開発を妨げている面がありました。今はまだ良くても、このままタイトル数が増えていったら大変なことになるぞという懸念があったんですね。また、当時、任天堂さんから提示された『Super Mario Run』の想定トラフィックが、これまで多くのスマホアプリを手がけてきた我々の目から見てもあまりにもケタ違いで……。そこで、
Google App Engine(GAE)
のようなマネージドサービスを利用して、いくつかの業務を Google さんにシフトするということを提案することにしました。」
GAE のオートスケールは、トラフィック量に合わせて自動でインスタンスの追加、削除を行います。しかも、ミリ秒単位でその数を最適化することが可能です。世界同時リリースという大量のアクセス数が予想された今回のケースでは、システムがダウンすることは絶対に避けなければなりません。高可用性が求められるサービスの実現に GAE が選択された理由の一つがここにあるのです。
しかし、GAE を採用するということはバックエンドを 1 から作り直すと言うことにほかなりません。しかも菅原さんが任天堂にこの提案を行ったのは 2016 年 7 月末。『Super Mario Run』配信予定日まで、もう、半年を切っていました。任天堂側はこれについてどのように対応したのでしょうか?今回のプロジェクトのもう一方を担う、任天堂側のチームを率いてきた、任天堂株式会社ビジネス開発本部 スマートデバイス事業部の府川幸太郎さん、竹本賢一さんにも聞いてみました。
「確かに大規模な改修ではあるのですが、『Miitomo』で菅原さん率いる DeNA チームの実績を目の当たりにしていたので、今から始めても充分にやりきれるのではないかという確信がありました。いや、むしろ、今、このタイミングでそれをやらなければ将来的にまずいことになるだろう、と。また、個人的にもマネージドサービスを活用して社内の運用コストを軽減することに興味がありましたので、ぜひやりたいと思いました。」(竹本さん)
「……と、竹本は言いますが、私自身はそれよりもやや慎重でしたね(笑)。将来に向けた不安要素があるとは言え、既に安定稼働しているシステムがあり、その次に来るタイトルがマリオというビッグタイトルで失敗が許されないわけですから。そんな中、これまで使ったことのない GAE に移行するというのはかなりのチャレンジ。ただ、最終的には、私がテクニカルな面で信頼を置いているこの 2 人が問題ないと言うのだから移行しようと決断しました。」(府川さん)
任天堂株式会社
ビジネス開発本部 スマートデバイス事業部 事業システム開発グループ
グループマネージャー 府川幸太郎さん
“クレイジーな目標”に 3 社協力のもと邁進
こうして動き始めたバックエンドの GAE 移行。これに際し、竹本さんと、菅原さんはまず Google に技術的協力を要請します。もちろん、Google にとってもそれは望むところ。ちょうどその数か月前(2016 年 7 月)にNiantic, Inc. からリリースされた『Pokémon GO』での経験を踏まえ、大規模プロジェクトにおける安定性向上を顧客と二人三脚でやっていくべきだという認識が生まれていたのです。
「時間がない中、Google さんのフットワークの軽さ、積極性には本当に驚かされました。相談した先から、その場で一緒に課題を解決してくれる方をご紹介いただくなど、迅速に対応していただきました。」(竹本さん)
任天堂株式会社
ビジネス開発本部 スマートデバイス事業部 事業システム開発グループ
グループチーフ 竹本賢一さん
「9 月末ごろに一通りの実装が終わり、そこから、10%、20%と品質を高めていくため、さまざまな助言をいただきました。毎日のようにハングアウトでやり取りしたほか、実際にアメリカからお越しいただき、同じ部屋に籠もってみっちりトラブルシュートできたのはありがたかったですね。もちろん、こちらからもそれぞれのサービスをどのくらいの規模感で使うことになるのかなどを、エスティメーションシートにまとめて共有するようにしています。そうしたかたちで、非常に効率的に開発が進んでいった結果、10 月下旬くらいには満足できるレベルのものが仕上っています。」(菅原さん)
もちろん、そこからの負荷試験においても、Google は徹底的にこれにコミット。アメリカ本社の SRE(Site Reliability Engineering=サイト信頼性エンジニアリング)担当者も来日し、『Super Mario Run』の配信に耐えうる堅牢なバックエンドを構築。最終的には
Datastore
へのトラフィックテストにおいて、秒間 300 万アクセスのテストを完了。想定される数字の数倍ものアクセスにも耐えるシステムが完成しました。
「ただ、そんな Google さんから見ても、『Super Mario Run』を 150 か国・地域で同時スタートしようというのは衝撃的だったようで、最初のミーティング時に『あなたたちはクレイジーだ!』と言われてしまいました(笑)。でも、そこで、だからやるべきではない、ではなく、どうすればやれるのかを一緒に模索してくれたのはうれしかったですね。最初から最後まで建設的なやり取りができました。」(竹本さん)
システム構成図(GCPのさまざまなサービスを利用)
『Super Mario Run』配信当日、そこに“ドラマ”はなかった
そして迎えた、『Super Mario Run』配信日。その後の発表で明らかにされたように、わずか 4 日で 4,000 万ダウンロード( 1 億 5,000 万ダウンロードに到達する見通し。2017 年 4 月末時点)を達成しました。もちろんこの日は任天堂も DeNA も泊まり込みで待機していたそうです。近年、大規模タイトルでは少なからず接続障害が発生していますが、『Super Mario Run』はどうだったのでしょうか?
「ところが、これが本当に何事もなかったんです。あまりに何もなさ過ぎて不安になってしまうほど。当日にこんなトラブルがあって、それをこんなふうに切り抜けたんです、とか言えれば良かったんですが、そこに“ドラマ”は起きませんでした(笑)。」(菅原さん)
その後の『ファイアーエムブレム ヒーローズ』や Android 版『Super Mario Run』のリリース時にも、このバックエンドは安定動作。現在も特に大きな問題は起こっていないと言います。
「もちろん、小さなトラブルはいくつかありましたが、お客さまが長時間ゲームをプレイできなくなったというようなトラブルは発生していません。現在、抱えている課題は急激なアクセス増があった時に若干、遅延が発生するというくらいですね。今はその対策として GAE のオートスケールにちょっと手を加えて、アクセスが急増するゲーム内イベントの直前などに手動でインスタンスを上げられる仕組みなどを組み込んでいるのですが、これが完全自動化されるのが理想。今どきは機械学習などもありますし、Google さん ならきっとできるはず(笑)。もちろん、そのために必要となるデータはフィードバックさせていただいています。」(菅原さん)
株式会社ディー・エヌ・エー
オープンプラットフォーム事業本部 システム開発部 アライアンスシステムグループ
グループマネージャー 菅原賢太さん
今回開発したシステムでは、ゲームに関係する各種ログデータも膨大に記録されています。こうしたデータの分析には
BigQuery
を活用。大量データを瞬時に分析することが可能となり、今後のアプリ開発に有益な情報を蓄積しています。
「今後もタイトルをリリースしていく予定ですが、任天堂、DeNA さんそして、Google さんの、このメンバーでやっているうちは、大きな壁を感じることはないのではないかと期待しています。報道などでは意外と言われることもあった、任天堂と DeNA さんの組みあわせですが、実際にやってみると、任天堂が長年培ってきたグローバルサービスのノウハウと、DeNA さんが持っているモバイルのノウハウが相互に補うようにがっちりハマりました。今、考え得る最高のチームが作れたのではないかと思っています。」(府川さん)
任天堂株式会社の導入事例 PDF は
こちら
をご覧ください。
GCP のその他の導入事例は
こちら
をご覧ください。
キユーピー株式会社の導入事例:キユーピー+ブレインパッドの取り組みで次世代の AI 検査装置を実現!
2017年6月6日火曜日
工業製品と異なり、個体ごとの揺らぎの大きい食品原料の世界では、良品・不良品の検査・仕分けを人力に頼らざるを得ず、それが現場の大きな負担になっていました。そんな中、昨年 10 月にキユーピー株式会社が、人工知能(AI)を駆使した原料検査装置の開発を表明し大きな話題に。ここではその取り組みについて、その開発を主導した 4 人のキーパーソンに聞いてきました。
キユーピー株式会社
生産本部 生産技術部 次世代技術担当
担当次長
荻野武さん(写真中央)
挙母工場 製造二課 鶏卵購買・企画担当
係長
田村崇さん(写真左)
生産技術課 開発係
向井泰平さん(写真右)
■利用している Google Cloud Platform サービス
TensorFlow
■
キユーピー株式会社
1919 年、食品工業株式会社として設立。1925 年、「キユーピーマヨネーズ」の製造を開始。1957 年に社名をキユーピー株式会社に変更。現在グループ会社 55 社があり、そのうち海外には中国、東南アジア、米国などに拠点を持つ(2016 年 11 月現在)。コーポレートメッセージ「愛は食卓にある。」。
“安全”なだけでなく、“安心”できる原料でなければ良い商品は作れない
おなじみ「キユーピーマヨネーズ」を筆頭に、ドレッシングや各種調味料、ベビーフード、介護食など、日本人の食生活を 100 年近くに渡って支えてきたキユーピー株式会社。そんな同社がこれまで大切にしてきたことが『良い商品は良い原料からしか生まれない』という考え方です。今回のプロジェクトも、まさにここからスタートしたのだと、同社生産本部で次世代技術開発を担当する荻野武担当次長は言います。
「では『良い原料』とは一体どういうものなのでしょうか? まず、そもそもの前提として我々が仕入れている原料は、どれも信頼できる生産者が手がけた“安全”なものです。しかし、私たちはそれだけでは不十分だと考えます。例えば、ベビーフードの中に、害はなくとも、やや黒ずんだジャガイモが混じっていたらお母さんは心配に思いますよね。それは“安全”かもしれませんが、“安心”ではないのです。」(荻野さん)
これまでキユーピーはそうした原料由来の夾雑物(きょうざつぶつ)を、工場スタッフが目視で発見し、取り除いてきました。今回のプロジェクトに現場の代表として参加した、鳥栖キユーピーの向井泰平さんが勤務するキユーピー鳥栖工場では、スタッフの約 25 %にあたる 30~40 名がこうした検査業務に従事。まさに人海戦術でキユーピー品質を守ってきたのです。
「鳥栖工場では、1 日あたり 4~5 トンもの原料に対し全量検査を行っており、それが大きな負担となっていました。検査には一定以上の熟練が求められるため、人を増やすのも簡単ではありません。結果、思うような増産ができないなど、生産上の大きなボトルネックになってしまっていたんです。当然、これを機械化できないかということは何度も検討したのですが、従来の定番であったマシンビジョンでは、品目ごとに仕分けの定義を設定せねばならず、精度の面でもコストの面でも現実的ではありません。何せ鳥栖工場だけでも約 400 種類、全社的には数千種類もの材料を扱っているわけですから。」(向井さん)
そんな中、荻野さんは、自ら学習して精度を高めていくことができる AI を活用することで、この問題を解決できるのではないかと考えました。
「具体的な検討を始めたのは昨年夏ごろ。AI を専門に研究する機関も含め、数十社の AI 技術を検討しました。結果、画像解析の分野では、早くからこの方面で注目を集め、既に多くの実績も備えていた Google の
TensorFlow
がベストであるという結論に達しました。」(荻野さん)
さっそく荻野さんは、Google に自らの考えを打診。信頼できる開発パートナーとして、AI 開発支援で多くの実績を誇る株式会社ブレインパッドを紹介されました。しかし、そんな同社に取っても、キユーピーの目指す理想は簡単なものではなかったそうです。
「これまでも製造工程上の不良品を発見するシステムは複数開発していたのですが、キユーピーさんはこれまでのどの事例よりも検査基準が厳しく、検査精度を高めることが一つのハードルとなっていました。しかもそれを、ベルトコンベアー上を高速に流れていく原料に対して行わなければなりません。この精度と速度の両立は我々にとってもチャレンジでした。」(
株式会社ブレインパッド
テクノロジー&ソフトウェア開発本部 下田倫大さん)
AIを活用することによって“現場力”を高めたい
こうして始まった、キユーピーの次世代検査装置プロジェクト。その開発においては、「最初に最も高いハードルを課す」(荻野さん)ため、安全・安心において最も厳しい目が向けられるベビーフードの原料となるダイスポテト(賽の目状にカットされたジャガイモ)を検査対象に設定。約 1 万 8,000 枚のライン写真を TensorFlow に読み込ませ、良品・不良品の閾値(しきいち)を徹底的に学習させたそうです。
「ここで、大きなブレイクスルーとなったのが、AI を正解・不正解を判断する『分類器』として使うのではなく、良品の特徴を学習し、そうでないもの=不良品を弾く、『異常検知』というアプローチを採用したこと。このアプローチですと、良品のデータだけを学習させるだけで高い精度と速度を両立できるようになります(分類器として精度を出すためには、不良品のデータも膨大に学習させる必要がある)。グローバルかつオープンな TensorFlow は、コミュニティの受け皿が大きいことも特徴です。論文で発表されているアルゴリズムが既に実装されているケースも多く、トライの閾値が低いのです。こうしたエコシステムができあがっていることも TensorFlow の強みと言えるでしょう。」(下田さん)
「ブレインパッドさんのおかげで、開発も順調に推移。概念実証(POC)を 11 月頃に行い、年末にそれを踏まえた構想設計を開始。2 月にはプロトタイプが完成し、4 月上旬にはそれを鳥栖工場に持ち込んで実証実験を実施しています。その際、あえて人力で取り除いた不良品を混ぜ込んだ原料を検査させたのですが、ほぼ正確にそれを指摘してくれるなど、結果は上々でした。今後は、実験で明らかになったいくつかの問題の解消や、更なる速度アップを行い、さらに完成度を高めていく予定です。もちろん“その先”もすでに構想しているのですが、今回はまだ内緒ということにさせてください(笑)。」(荻野さん)
将来的にはこの検査システムを、原料メーカーなどの協力会社に外販していくことも考えているとのこと。その点について、本プロジェクトでマーケティング面を担当しているキユーピー挙母工場 企画担当係長の田村崇さんは次のように語ります。
「マシンビジョンに代表される既存の検査システムは、高価で設置に大きなスペースが必要になる上、応用がきかないため、おいそれと導入できるものではありませんでした。そんな中、AI を活用した汎用性のある検査機構には間違いなく大きなニーズがあります。今はまだダイスポテトだけですが、今後、別の穀物、そして私が買い付けを担当している鶏卵など、さまざまな方面に拡張していけるようにしたいですね。」(田村さん)
なお、この取り組みに際して誤解されたくないのは、AI による自動化の目的が、人員・コストの削減ではないことなのだと、荻野さんは強調します。
「むしろ、AI を活用する狙いは活人化。人間→AI ではなく、人間×AI によって、“現場力”を高めていくことが真の目的なのです。まずは今回開発した検査システムで大まかに不良品を取り除き、そこから漏れたものを、熟練のスタッフが弾いていくという合わせ技で生産性を高めていけると考えています。実際、実証実験に協力してくれた現場スタッフの反応は極めてポジティブ。単純作業をシステムに任せられるようになることで、よりクオリティの高い仕事ができるようになると期待してくれているようです。」(荻野さん)
キユーピー株式会社の導入事例 PDF は
こちら
をご覧ください。
GCP のその他の導入事例は
こちら
をご覧ください。
株式会社オークネット・アイビーエスの導入事例:自社の抱える膨大な情報資産を AI 活用で“金の卵”に
2017年5月31日水曜日
Vision API、TensorFlow、Cloud ML、近年特に注目度の高い AI テクノロジーの活用事例を紹介します。30 年を越える情報流通事業で蓄積したビッグデータを、AI を駆使した独自システム「Konpeki」で有効活用した株式会社オークネット・アイビーエスの描く未来について伺いました。
株式会社オークネット・アイビーエス
クラウドビジネス推進部
統括 GM
黒柳為之さん(写真右)
大橋秀紀さん(写真左)
■利用している Google Cloud Platform サービス
Google Cloud Vision API、Google Cloud Machine Learning、TensorFlow
■
株式会社オークネット・アイビーエス
中古車、バイク、花卉、ブランド品などの関連事業者向けオークション流通支援業を営む、株式会社オークネット(2017 年 3 月 29 日に東証一部上場)のシステム開発部門を分社する形で 2015 年 1 月に設立。最先端テクノロジーを駆使した IT プラットフォームをグループ内外に提供する。なお、社名のアイビーエスは Innovative Business Solution の略。
発想のきっかけは「AlphaGo」?
Web テクノロジー・クラウドソリューションを活用した新たなビジネススキームを生み出すべく、2015 年 1 月に株式会社オークネットから分社・独立した株式会社オークネット・アイビーエス。オークション事業で長らく培ってきたリアルタイム Web 技術に加え、今後、ますます重要度が高まっていくとされる、AI、IoT、そしてビッグデータ技術を事業の柱として、さまざまなチャレンジを行っています。
2016 年 10 月にサービス提供開始した、車両画像識別システム「
Konpeki(紺碧)
」もその成果の 1 つ。オークネットが約 30 年に渡って蓄積してきた車両取引のビッグデータを元に、写真から車名や型式を割り出し、また、その写真が車両のどの部分を写したものなのかを判定する機能を実現しています。今回は、その開発背景から導入後の効果、そして今後の展望について、同社クラウドビジネス推進部を率いる統括 GM 黒柳為之さんと、その指揮下で開発チームを率いた現場導入リーダーである大橋秀紀さんに伺いました。
「まず前提としてあったのが、オークネットが保持する膨大な情報資産をどうにかして有効活用できないかということ。オークネットでは年間約 400 万台の中古車流通を扱っているのですが、当時はそれを上手く活用できていなかったのです。これを金の卵にかえられないかということをずっと考えていたのですが、ある日、『AlphaGo(アルファ碁)』が盛り上がっているのを見て、AI を使えば何かができるのではないかと閃めきました。その後、社内でビッグデータ× AI の活用法を検討していく中で、
TensorFlow
と
Google Cloud Vision API
を使った車両画像識別システムを開発することになりました。」(黒柳さん) そうして2016年1月から Konpeki の開発がスタート。当時はまだ具体的なビジネス活用を想定していない実験的なプロジェクトだったそうですが、それゆえにいくつかのチャレンジを心がけたと言います。1 つは、解析する画像(オークション出品社が撮影した車両写真)に手を加えないこと。そしてもう 1 つが学習と評価の自動化です。 「両者に共通しているのは、運用において余分な処理を増やさないこと。例えば再学習の結果を人手で検証してしまうと、膨大なコストが発生してしまいます。画像収集からモデル作成、評価、反映までのサイクルを完全自動化することで、費用をかけずに日々追加されていくオークション車両画像を取り込んだ最新判定モデルを維持できるようにしたかったのです。」(黒柳さん)
とは言え、そこに至る過程ではやはり人力に頼らざるを得なかった面も。まず苦しめられたのが、教師データとなる取引情報のクレンジング。いかに大量のデータがあるとは言え、それら全てをそのまま投入したのでは正しい結果は生まれません。総計1億件以上にも及ぶ、文字通りのビッグデータを正確に仕分けしていく作業がとにかく大変だったと言います。その後も、効率的に車種・型式を判別するために最適なアングルの検証など、開発初期はひたすらにトライアンドエラーの繰り返しでした。
「それらについての目処が立った後には、学習スピードの向上が大きな課題となりました。取引情報には 1 つの車両当たり数点から十数点の写真が含まれているのですが、この処理が追いつかなくなってしまったのです。例えば 3 万枚の画像データをローカル環境の TensorFlow で処理しようとすると約 1 週間かかってしまいます。オークネットでは年間約 1,200 万枚の車両写真を蓄積しているので、これではどうやっても終わりません。そこで、2016 年 10 月頃、Google さんからの勧めに応じて、まだβ版だった
Google Cloud Machine Learning(Cloud ML)
を導入。並列処理をすることで、爆発的に処理速度が向上。あっという間に学習を完了させることができました。」(大橋さん)
「自動車」という枠を越えて、さまざまな業界への展開も開始
当初はビジネス活用の具体的なプランがなかったという Konpeki ですが、昨年 12 月、たまたま同じオフィスビルに入居していたという縁から、ランドクルーザー、ハイエースに特化した新車・中古車販売会社フレックス株式会社への導入が決定。フレックスでは、それまで買い取りした中古車の車両画像を手作業で分類・登録していたのですが、これを Konpeki で自動化できるのではないかと考えたのです。
「こうした画像認識は Konpeki の最も得意とするところ。これまで 20 分前後かかっていた作業が一瞬で終わるという時間的メリットに加え、手作業ではどうしても避けられないミスを防げること、これまで主観に頼っていた分類を AI が統一的に処理することなど、フレックスさんの業務上の負荷を軽減することができました。」(黒柳さん)
この成功を受けて、Konpeki は今後もさまざまな業務に拡大予定。ユニークなところでは、その高精度な車両画像識別技術を活かして、交通量調査に使おうという計画があるそうです。また、一般消費者が目にするところでは、流行りの LINE 査定での利用も視野に入っているのだとか。さらに、オークネットが保持する自動車以外のビッグデータを学習させた、他ジャンル向けの Konpeki 派生バージョンも開発開始。既に、ブランド品に特化した「Konpeki for Brand」が提供開始されています。
「今回、Konpekiで得たノウハウを元に、ディープラーニングを利用した汎用の画像識別システム構築用プラットフォーム『
Kogane(黄金)
』を提供開始しました。社内に活用できていない画像情報資産を抱えているというお客さまに活用していただけるとうれしいですね。もちろんそのためには、我々も苦労させられたビッグデータを正しく活用するための仕分けなども必要になるのですが、そういうお手伝いも含めてサービスを展開していきたいと考えています。」(黒柳さん)
実績を重ね、Google Cloud Next などのイベントでの講演を繰り返していく中、最近ではこれまで付き合いのなかった業界からも Konpeki や Kogane に関する問い合わせが増えているとのこと。
「そうしたお付き合いの中からヒントをいただき、現在は、食料品などの検査に Konpeki で培った技術とノウハウを活用できないかを模索中しています。具体的なことはまだお話できる段階にないのですが、食材の外観を分析することで、品質や安全性を判定する仕組みを作っていこうと考えています。食べ物の場合、自動車やブランド品などと異なり、一定以上悪いところがあると売り物にならなくなるなど、これまでとはロジックを変えなければならないのですが挑戦する価値はあると思っています。」(大橋さん)
「現在、食品検査の世界はライン上に高額なカメラを配置して都度、専用に設計したロジックで分析を行っているのですが、それを AI で置き換えられるんじゃないかと思っています。機械学習を駆使すれば、どんどん賢く、正確になっていくので、従来のように新しいことを始めるたびに改修するコストがかかりません。上手くはまれば、食品検査を新しい次元に持って行けるんじゃないかと思っているんですよ。」(黒柳さん)
株式会社オークネット・アイビーエスの導入事例 PDF は
こちら
をご覧ください。 GCP のその他の導入事例は
こちら
をご覧ください。
株式会社サイバーエージェントの導入事例:動画広告クリエイティブソリューション『VS(バーサス)』に Google Cloud Vision API を導入
2017年3月21日火曜日
現在、多くのエンジニアが注目し一大トレンドとなっている「機械学習(Machine Learning )」。Google Cloud Platform でも、さまざまな ML 系 API が提供されています。今回は画像解析 API「
Google Cloud Vision API
」の活用事例を紹介します。
■ 写真左から
株式会社サイバーエージェント
オンラインビデオ総研 所長 酒井 英典さん
AI Studio AI Lab 次世代ブランド戦略室 データサイエンティスト 杉尾 樹さん
インターネット広告事業本部 ブランドクリエイティブ局
プランニンググループ シニアプランナー 箸尾 拓哉さん
(利用している Google Cloud Platform サービス)
Google Cloud Vision API
■
株式会社サイバーエージェント
インターネット広告国内 No1. の売上高・営業利益率を誇るインターネット広告代理店事業を筆頭に、「AbemaTV」や「アメーバブログ」等を主軸としたメディア事業、複数のヒットタイトルを持つスマートフォンゲーム事業を柱として展開するインターネット総合サービス企業。現在は日本を含む全 10 か国に進出しており、2016 年時点での正社員数は約 4000 名に。
関連:インターネット広告事業の情報サイト「
CyberAgent AD.AGENCY
」
『VS』で動画広告のブランドリフト効果を客観的に測定
国内インターネット広告業界でトップシェアを誇る、インターネット広告代理店として知られる株式会社サイバーエージェント。以前紹介した
ゲーム事業領域の事例
で言及された「あした会議」や「ヒダッカソン」など、未来に向けた研究・開発についても定評のある企業です。もちろん、広告領域においてもその社風は健在。今回お話をお伺いした酒井さんが所長を務める「オンラインビデオ総研」では、いまだ黎明期とも言える Web 動画メディアについての研究を行うことでオンラインビデオ市場の健全な発展に寄与しようとしています。
そんなオンラインビデオ総研が取り組んでいる、これまでにない動画広告のクリエイティブソリューションが
「VS」
。これは一体どういったものなのでしょうか?
「現在、急激な勢いで増え続けている Web の動画広告ですが、これらは大きく 2 つに分けることができます。1 つがダイレクトにインストールや、CPA(Cost Per Acquisition)を取っていくようなレスポンス型広告。もう 1 つが、テレビ CM に代表される、認知・ブランドイメージ向上を目指すブランディング広告です。『VS』はそのうち後者をターゲットにしたクリエイティブ分析ソリューションとなります。」※1(酒井さん)
こうしたソリューションが求められるようになった背景には、ブランディング動画広告のほとんどが、TVCM 素材からの流用となっているという現実があります。同じ動画ということで多くの企業がこれを何の疑問もなく流用しているのが現実なのですが、冷静に考えてみれば TV と Web 動画では、見る装置や、見る場所が異なっています。「クリエイティブによっては TVCM と Web 動画との相性が良くないケースもあるのではないかという仮説から『VS』の開発をスタートしました。」(酒井さん)
『VS』では、実際のブランディング広告(動画)の構成要素を客観的に評価することで、動画広告のブランドリフト効果を検証。VS ポイントというかたちで採点した上で、より効果的な(VS ポイントを向上する)表現を提案します。
(VSレポートサンプル)
「これまでこうした提案はクリエイティブ担当者の経験やセンスなど、属人的で、数値化できないものに頼ることがあったのですが、それを定量的な分析結果と紐付けてコンサルティングしたいと考えたのです。」と語るのは、同社インターネット 広告事業本部 ブランドクリエイティブ局でプランナーを務め、『VS』の開発にも 深く関わっている箸尾 拓哉さん。 なお、『VS』の第 1 ステージでは、こうした分析を人力で行っていました。その後、ブランドリフトに寄与する要素を、企業・サービスロゴの位置やサイズ、コピー要素、背景要素、キャスト要素など、約 100 種類のタグにこれを集約。その組みあわせによって広告の効果を評価していたのです。
「バナー広告のクリエイティブでも、表現要素を分析して最適化するということはやっています。そういう意味では『VS』はその延長線上にあるものです。ただ、動画は静止画のバナーと比べてとても要素が増えます。その組みあわせで善し悪しを判断しようとすると統計モデルを組む必要があると考えました。そして、それこそ が『VS』の最大のポイントと言えるでしょう。」(箸尾さん)
そんな『VS』は、昨年 11 月から、まず YouTube に特化した『VS for YouTube』と いう形で運用開始。全く同じ広告配信条件下で『VS』を利用した場合としなかった場合でブランドリフト値に差が出ることを確認できたなど、早くもその効果を発揮しつつあります。
Google Cloud Vision API が『VS』を新たなステージへ導く
そして今、オンラインビデオ総研では、『VS』をさらに強力なソリューションとすべく、Google Cloud Vision API を活かした機能強化版を開発中。Vision API の動画自動解析機能を利用して、構成要素の抽出を一部自動化するなどといった挑戦を始めています。この革新について、同社で人工知能に関する研究・開発を行う AI Studio AI Lab 所属のデータサイエンティスト・杉尾 樹さんは、次のように説明してくれました。
「実は、Vision API を使おうという話は、『VS』の開発当初からありました。しかし、当時はどのような構成要素がブランドリフトを向上させるか未知であったため、まずはクリエイターの知見を元に変数を作成していく、人力での開発を進めました。その結果をふまえた上で、現在は Vision API を使って、一部のタグ付けを自動化することに成功しています。しかし、最終的に『VS』の全てを AI 任せにするかというと、答はノー。例えばロゴの大きさや動きなどは Vision API で解析できますが、青年がドリンク片手に駆け抜けているシーンから『清涼感』というメタな情報のラベリングをすることは無理ですからね。そこは適材適所で棲み分けていくべきだと考えています。」
ちなみに、現在の『VS』では、内容の評価を行っているのは冒頭と末尾の 3 秒ずつ。もし、それが単に手間の問題なのであれば、AI を駆使することで解決可能なように思えるのですが、現在はあえてそうしていないそうです。
「冒頭末尾の 3 秒を分析対象としたのは、手間の問題だけが理由ではありません。
開始 5 秒後からスキップ可能となる Web 動画の仕様(YouTube 視聴時、冒頭に挿入される動画広告「TrueView」の場合)や、末尾に視聴者への呼びかけ要素が配置されることなどを考慮し、特にその合計 6 秒が重要だと考えました。また、開始 5秒ではなく 3 秒を対象としたのは分析対象のシーン数を制限し、考察しやすくする意図もあったためです。」(箸尾さん)
「もちろん手間と時間をかけて全ての内容を分析することもできますが、それによって、得られるアウトプットが複雑化し過ぎると、かえってクリエイティブ制作過程の意思決定が混乱してしまいます。『VS』の本来の目的は、クリエイターやクライアントの意志決定をサポートすること。であれば、冒頭と末尾の、本当に重要な部分だけに注目した方がハラオチしやすいのではないでしょうか。」(杉尾さん)
「この 6 秒間は、動画広告の中でも特に最適化しやすい部分でもあります。また、 全てを『VS』でやろうとするのではなく、あくまでサポートに徹することが大事。 『VS』で提案するのはあくまでベースの部分。データが出した分析結果と、人間的なアイデアを掛け合わせて良いものを作るのが目的です。クリエイターの想像力を縛るようなものにはしたくありませんでした。」(酒井さん)
今回、あくまで人力のサポートということで活用されている Vision API ですが、杉尾さん曰く、「とは言え、今後はより活用される領域が広くなっていくでしょう。」とのこと。「たとえば、バナー広告などの画像系クリエイティブを Vision API でスコアリングし、データ化された “良いクリエイティブ” という客観的指標を配信ロジックに組み込んでいくことはチャレンジしてみたいですね 。そして、何よりうれしいのが、そのようなことが Google のサービスを使うと、驚くほど手軽にできてしまうこと。Vision API 以外の ML 系 API とか、
TensorFlow
、そして、
Bigtable
や
BigQuery
などまで、
Google Cloud Platform
には便利なものがたくさんあって、それを自由に、低コストに使える。これは発想を実現するための手段として素晴らしいですね。また、最近では
Spanner
が気になっています。今後、グローバル展開が重要視されていく中、スケールしやすい RDB(Relational Database) として、有望な選択肢の 1 つになるんじゃないかと AI Studioでも話題になっているんですよ。」(杉尾さん)
昨年 11 月のリリース以来、すでに 60 件を越える案件で活用されている『VS』。 最後に、今後の展開予定についても聞いてみました。
「最近、実際の利用事例を聞いてなるほどと思ったのは、すでに存在する TVCM 素 材の中から、どれが YouTube での配信に向いているかの判断に『VS』をつかった というもの。そういう使い方もあるのだな、と。」(酒井さん)
「Vision API の導入と並行して、業界別の『VS』を立ち上げていこうと計画中です。金融系だったり、飲料系だったり、エンタメ系だったり、業界によって特徴のある表現要素を分析していきたいです。また、『VS』を初速の効果最大化の為の活用だけでなく、運用フェーズでも配信効果の測定と紐付けて、PDCA を回していくようなソリューションにしていきたいと考えています。」(箸尾さん)
※1 配信実績を他社に公開することはありません。抽象的なクリエイティブ要素の特徴を数値化した上で、分析をしています。また、本サービスは、クリエイティブの冒頭と末尾の 3 秒間に限定した分析のため、特定のタレントやストーリーを指定することはなく、クリエイティブが類似してしまうことはありません。
株式会社サイバーエージェントの導入事例 PDF は
こちら
をご覧ください。
GCP のその他の導入事例は
こちら
をご覧ください。
株式会社トップゲート、日本国内のサードベンダーで初めて Google Cloud Platform 認定トレーニング及び資格試験を開始
2014年9月29日月曜日
本日、
株式会社トップゲート
(本社:東京都文京区本郷3-40-11、代表取締役:加藤 昌樹、以下トップゲート)が、日本国内にて Google のトレーニングパートナーとして認定されました。
これを機に、トップゲートは、日本国内のサードパーティー ベンダーとしてはじめて、Google Cloud Platform 認定トレーニングを開始します。本認定トレーニングは、クラウドエンジニアの方々を対象としたもので、Google の「Qualified Developer (認定エンジニア)」の資格を得るための公式の資格試験「CP300」受験の際に受講必須とされるものです。
Google Cloud Platform(GCP) は Google が提供するクラウド プラットフォームの製品群で、導入企業数の増加に伴い、多くの技術者の育成が求められていました。本トレーニングは Google ハングアウトにも対応予定で、自宅や事務所、さらには、遠方からも受講する事が可能です。
公式トレーニングと試験が、サードパーティーにより実施されることにより、クラウドエンジニアの受講機会が増えるため、GCP のさらなる普及が期待出来ます。
【Google Cloud Platform 認定トレーニング】のコース概要
コース種別
・CP301: Google App Engine (2日コース、税別12万円)
・CP302: Google Cloud Storage (1日コース、税別6万円)
・CP303: Google Cloud SQL (1日コース、税別6万円)
・CP304: Google BigQuery (1日コース、税別6万円)
・CP305: Google Compute Engine (1日コース、税別6万円)
受講特典
受講者には、GCP 利用料500ドル分が無料になるクーポンコードが配布されます。(既に他のクーポンを利用しているアカウントでは利用不可)
【Google Cloud Platform 認定試験】の概要
受験資格:Google Cloud Platform 認定トレーニングを受講している事
受験費用:各US$100、但しトレーニング受講により初回受験無料
試験種別
・CP301: Google App Engine (90分)
・CP302: Google Cloud Storage (90分)
・CP303: Google Cloud SQL (60分)
・CP304: Google BigQuery (90分)
・CP305: Google Compute Engine (90分)
【Google Cloud Platform認定トレーニングの詳細な情報】
http://google-training.jp/cloud-platform/
【本件に関するお問い合わせ先】
株式会社トップゲート CP300 担当
e-mail: cp300@topgate.co.jp
Google I/O 2014 で発表 「 企業向け Google の製品強化について」
2014年6月27日金曜日
米国時間6月25日投稿されたものの抄訳です。
Posted by President of Google Enterprise Amit Singh
6 月 26 日(現地時間 25 日)、米サンフランシスコで開催された「Google I/O 2014」。来場した開発者は 6,000 人を超え、さらに、ライブ ストリームの聴衆は、100 万人を超えました。本年の来場者については、その 41 %が、B2B アプリケーション関連の開発者の方々でした。個人ばかりではなく、企業でも、よりすぐれたアプリケーションが求められているのだと思いました。
本日は、企業向けの Google ドライブをはじめとした新製品と、企業の方々によって使い勝手が良いように、Google Apps for Business、Android、Chromebooks そして、 Google Cloud Platform に新たな仕様を設けておりますので、その発表をさせていただきます。
Google Drive for Work の発表と、 Google ドキュメント のアップデートについて
既に 1 億 9 千万人の方々に Google ドライブをお使いいただいておりますが、Crate & Barrel、HP、Jaguar Land Rover、Seagate そして Tory Burch はじめ、企業の皆様にもご利用頂き、業務効率の向上、従業員と顧客間との連携を実現していただいていました。本日、企業の方々からのご要望にお応えし、新たに、企業向けの Google ドライブとして、
Google Drive for Work
を発表いたしました。容量無制限、高いユーザー管理と監査機能やレポート機能を実現しています。さらに、本日より、Google ドライブへのデータ転送およびデータ センター内、Google のサーバー全てでデータが暗号化されるため、より高いセキュリティを実現しています。費用は、1 ユーザーあたり月額 1200 円です(国内価格)。
Quickoffice
が、Google ドキュメント、Google サイト、Google スライドに統合されました。これにより、
オフィス互換モード
で、Microsoft Word、Excel® 、PowerPoint® ファイルを開いたり、編集したりすることができるようになりました。これにより、これまで Google Apps で Microsoft Word、Excel® 、PowerPoint® のファイルを開く際に必要とされていた Google Apps のファイル形式への変換が必要なくなりました。 WordをインストールしていないPCだけでなく、普段お使いの
Android
、
Chrome browser
、さらに、次期 iOS を搭載したデバイスなどの上でも、Microsoft Word、Excel® 、PowerPoint® などのファイルを開き、編集し、保存し、送信できるようになります。それらのファイルには、Google ドキュメントなどに搭載されている複数ユーザーによる同時編集やコメント機能もそのまま有効になるため、コラボレーションも可能になります。
Cloud Platform 上で、開発者の生産性とデータ分析能力を向上
Google Cloud Dataflow は、マネージド サービスです。開発者や企業が大容量のデーターセットを迅速かつ効率的に処理する際に使用するもので、
26 日に Google I/O で発表されました
。10 年間におよぶ内部のリサーチ、開発にもとづき、Cloud Dataflow は、システムの管理、チューニング、運用などを Google にまかせ、開発者は、データから実用的な洞察を得ることに集中するように設計されています。
開発過程で、アプリケーションの管理と運用を強化するため、Google Cloud Monitoring を発表し、 近年 Google が買収した企業によって開発された Stackdriver、(新たなトレースとデバッグ ツールを発表)上に構築しました。これにより、開発者の生産性が大きく向上します。
モバイル開発者が Google のプラットフォーム上でより容易に開発することができるように、Google Cloud Save を発表し、Android studio への統合をすすめています。
本日は、上記以外に、次期 Android 「L」についての新機能が発表しました。こちらも
企業向け
の製品です。 この機能については、仕事と遊びについてシームレスな連携を実現するもので、IT 管理者が、データのセキュリティ レベルや、アクセスの容易さを設定するための選択肢を設けました。
企業の方々にも、Google Play をオーダーしていただき、管理者、開発者の方々はじめ、従業員の方々にお使いいただければと思います。他のアップデート情報は
こちらに
に記載していますので、ご覧ください。
ひきつづき、新たな発表などにつきましては、google.com/io をご確認ください。
Google Cloud SQL がどなたでも利用できるようになりました ー SLA、500 GB のデータベース、暗号化の新機能とともに
2014年2月14日金曜日
* このポストは、
Google Cloud Platform Blog
からの翻訳ポストです。
Google Cloud SQL
は Google Cloud Platform から提供される完全に管理された MySQL サービスです。
Google App Engine
または
Google Compute Engine
上で実行されるアプリケーションのバックボーンデータベースとして利用することができ、本日より、どなたでも利用できるようになりました。同時に、お客様のデータの暗号化、99.95 %の稼働時間に対する SLA、そして最大 500 GB のデータベースのサポートを提供します。
データの暗号化による安全性の向上
Cloud SQL のデータは自動的に暗号化されます。既存の機能に加えて、安全性、信頼性に関わる以下の機能が提供されます。
データベースのテーブルおよび一時ファイルを含むお客様のデータは自動的に暗号化されて保存されます(バックアップデータの暗号化機能はまもなく提供される予定です)。
Google の内部ネットワーク内の Cloud SQL のトラフィックはすべて暗号化されます。
外部接続は
SSL を使って暗号化
することが可能です。
インスタンスに接続するすべてのホストおよび Google App Engine のアプリケーションは明示的に認証される必要があります。
MySQL のユーザ権限はデータベースレベル、テーブル単位さらにカラム単位でアクセス制御を行うことが可能です。
データは異なるロケーションで複数回複製されます。
デフォルトでスケジュールバックアップが自動的に実行されます。
より大きなデータベース
すべての Cloud SQL インスタンスは最大 500 GB までデータを保存できます。最も小さい D0 インスタンスは一時間あたり $ 0.025 から使用でき、16 GB の RAM を備える D32 インスタンスまで利用できます。データは複数のゾーンで複製され、自動的にバックアップされます。これらはすべてサービスの利用料の中に含まれます。実際に利用したストレージ量に対してのみ課金されるため、前もってストレージ領域を確保しておく必要はありません。
可用性に対する SLA
複製されたストレージは、我々が 99.95 % の可用性を保証できます。 縮退されたサービスが多くのアプリケーションには受け入れ難く、我々は可用性に対してより高い基準を設定しています。例えば、一分あたりたった 20 % の接続エラーが発生したことでダウンタイムと判断します。詳細は
SLA のページ
をご覧ください。
開発者にとっての魅力
Cloud SQL は多くの開発者から賞賛の声をいただいています。
Costco
はGoogle Compute Engine と Cloud SQL を利用して EC サイトを運用しています。
グローバル電子商取引の上級副社長 Don Burdic:
”Costco は年間 $ 100 B を超える年間売上高を誇る世界有数の会員制倉庫店です。コストを抑え、それをメンバーに還元する思想のもと、2013 年の 6 月にメキシコ向けの EC サイトを Google Cloud Platform 上に実装しました。2013 年の 10 月から運営されており、Google Cloud Platform の性能は我々の期待を超えています。このプロジェクトの成功を受けて、他国のウェブサイトの1つを Google Cloud Platform に移行しています。”
LiveHive
は 25,000 人以上のセールスプロフェッショナルが利用するソーシャルセリングのアプリケーションです。
製品担当上級副社長 Fritz Mueller:
"我々は Google Cloud SQL サービスがコストと便益の理想的なコンビネーションをもたらしてくれることを発見しました。性能は我々にとってキーとなります。なぜなら我々は顧客に対して売上のリアルタイムデータを提供するためです。Google Cloud SQL を利用すると、我々は信頼性やスケーラビリティ、アップグレードといったことを気にせずに顧客が望む機能を構築するのに集中できます。"
Ocado
は英国のいくつかの大規模スーパーマーケットの物流と EC を管理します。
ゼネラルマネージャ James Donkin:
“我々は、Cloud SQL が必要なときに容易に拡大縮小しながら、イノベーションを促進する迅速な開発サイクルをサポートする柔軟性に非常に満足しています。”
ライブビデオのストリーム配信基盤である
Livestream
の共同創設者 Mark Kornfilt:
“Google App Engine と Cloud SQL のお陰で、新しい製品コンセプトから 2 ヶ月以内でローンチさせることができました。我々は運用に頭を悩ますことなく、堅牢性や信頼性、スケーラブルな Web を実現するためのツールは Google がすべて提供してくれます。”
試してみてください
Google Cloud SQL に関する詳しい情報は
こちら
から参照できます。
Google Cloud Platform が HIPAA 準拠が必要なお客様をサポートします
2014年2月10日月曜日
ヘルスケア関連のアプリケーションを構築する際、正しいコードと信頼たるユーザエクスペリエンスが必要なのと同時に、あなた自身が弁護士となる必要があるかもしれません。構築時にはいくつか考慮すべきステップがあります。特に、米国におけるヘルスケア関連のアプリケーションおよびサービスは
Health Insurance Portability and Accountability Act (HIPAA)
の規制に準拠する必要があります。HIPAA は、個人が識別できる健康情報を保護するために、プライバシー、セキュリティ、および侵害通知に関する標準を確立します。クラウドで構築する場合、あなたのアプリケーションがこれらの規制に準拠しているかの確認が課題になります。
Google インフラストラクチャ上でアプリケーションを構築する開発者に対して、我々はBusiness Associates Agreements(BAA)のサポートをアナウンスしました。BAA はカバードエンティティ(あなた、開発者)およびビジネスアソシエイトである Google の間で、HIPAA で守られる情報を正しく扱うための契約です。
このたびクラウドプラットフォームおよび Google Enterprise におけるその他のコンプライアンスに加わります:
ISO 27001
:
ISO 27001
は最も広く認知され、国際的に認められた独立したセキュリティ基準の一つです。
2012 年
に Google Apps において ISO 27001 を獲得した後、昨年証明書を更新し、新たに Google Cloud Platform に対する証明書を獲得しました。
SOC2, SSAE 16 & ISAE 3402
: 企業は彼らのサービスにおいてデータ保護が正しく行われていることをドキュメント化し確認するために、
SOC2
,
SSAE 16
Type II 監査および、その国際版である
ISAE 3402
Type II 監査を利用します。我々は
2008年
から毎年(当時の名称は SAS70)、Google Apps においてこの監査を完了しています。そして、昨年 Google Apps と Google Cloud Platform に対しても完了しました。
HIPAA
: 昨年より、Google Apps の顧客が HIPAA で規制されるデータをサポートできるよう
BAA
に取り組み始めました。今年、その対象を Google Cloud Platform にも広げることとなりました。
我々は Google Cloud Platform において HIPAA 規制に従う必要のあるお客様をサポートできることを楽しみにしています。より詳しい情報は営業チームまで問い合わせください。
Labels
#GoogleCloudSummit
#GoogleNext18
#GoogleNext19
77 min Lunch
add on
admin
Advanced Solutions Lab
AI
AI Hub
AI Platform
Android
Anthos
API
App Engine
App Maker
apps
Apps script
ASL
atmosphere
Atmosphere Tokyo
AutoML
AutoML Natural Language
AutoML Translation
bigquery
Box
Calendar
Case Study
Chorme OS
Chrome
Chrome Enterprise
Chrome Enterprise 導入事例
Chrome for Work
Chrome ウェブストア
chromebook
chromebooks
Chromebooks for Education
Chromebooks for meeting
Chromebooks for Work
Chromebox
Chromebox for digital signage
Chromebox for meetings
Chronicle
Cisco
Cloud
Cloud Armor
Cloud AutoML
Cloud AutoML Natural Language
Cloud AutoML Translation
Cloud AutoML Vision
cloud connect
Cloud Dataflow
Cloud Identity
Cloud IoT Core
Cloud Load Balancing
Cloud Memorystore for Redis
Cloud monitoring
Cloud OnAir
Cloud Pub/Sub
Cloud Ranking
Cloud Services Platform
Cloud Storage
Cloud TPU
compliance
compute engine
Contact Center AI
Container Engine
Coursera
Deloitte
developers
Dialogflow Enterprise Edition
Drive for Work
Dropbox
earth api
Education
enterprise
Enterprise Japan
event
Evernote
Expo
Firebase
FISC
Forrester
G Suite
G Suite Business
G Suite for Education
G Suite 事例
G Suite 導入事例
G+
gadget
GAE
GCE
GCP
GCP 導入事例
GCP 認定資格チャレンジ
GDPR
GEO
GEP
GfWtips
GKE
gmail
Gmail、新機能
Gone Google
GoneGoogle
Google App Engine
Google Apps
Google Apps Blog
Google Apps for Education
Google Apps for Work
Google Apps Script
Google Apps ユーザー事例
Google Apps 導入事例
Google atmosphere
Google calendar
Google calender
Google classroom
Google Cloud
Google Cloud Certification
Google Cloud Next '18 in Tokyo
Google Cloud Next '19 in Tokyo
google cloud platform
Google Cloud Search
Google Cloud Summit '18
Google Cloud 認定資格チャレンジ
Google Commerce Search
Google Derive
Google Docs
Google Docs API
google drive
Google Drive for Work
Google Earth
google enterprise
Google Enterprise Day
Google for Education
Google for Work
Google form
Google hang-out
Google hung-out
google map
Google maps
google maps api
google maps api premier
Google Maps APIs
Google Maps for Work
Google Maps Platform
Google Message Continuity
google search appliance
Google Shopping
Google Sites
Google Springboard
Google Storage for Developers
Google Video
Google Wave
Google スライド
Google ドキュメント
Google ドライブ
Google フォーム
Google マップ
Google+
GoogleApps
GoogleApps、新機能、spreadsheets
groups
gsa
Hangouts Meet
healthcare
Hybrid Cloud Platform for Google Cloud
Inbox
INSIDE
iOS
iphone
ISAE 3402 Type II
ISO 27018
IT
Jamboard
japan
Kubeflow Pipelines
Looker
Lotus Notes
Machine learning
map
maps api
Maps 導入事例
Maps-sensei
Mapsコーナー
media
microsoft office
migration
mobile
new features
Next
Next Tokyo
OAuth
Office 365
Office of the CTO
Osaka
partner
Partner Interconnect
partner program
Partner Summit
postini
pricing
Qwiklabs
region
research
RSA
SAP
SAS70
search
Security
Security Key
seminar
Shizuoka
Signage
Sites
SMB
SSAE 16 Type II
startup
Status Dashboard
TensorFlow
Trial
Upload any files
vault
Veolia
Viacom
Virtual Conference
VMware
あっぷす先生
あっぷす先生 誤解をとく!
あっぷす先生会社訪問
イベント
インフラストラクチャ
おしえて!あっぷす先生
おしえて!くらうど先生
オフライン
クラウド
くらうど先生
サイネージ
サポート
セキュリティ
チームドライブ
チェンジマネジメント
デジタル トランスフォーメーション
テレワーク
パートナー
ハングアウト
プライバシー
まっぷす先生
ランキング
リージョン
ワークインサイト
円周率
海底ケーブル
企業検索
機械学習
互換性
事例
小売
新機能
働き方
認定資格
Archive
2019
8月
7月
6月
5月
4月
3月
2月
1月
2018
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2017
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2016
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2015
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2014
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2013
12月
11月
10月
9月
7月
6月
5月
4月
3月
1月
2012
12月
11月
10月
9月
8月
7月
6月
5月
4月
2月
2011
12月
10月
9月
8月
7月
5月
4月
2月
2010
12月
11月
10月
9月
7月
6月
5月
3月
2月
1月
2009
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
1月
2008
12月
11月
10月
9月
8月
7月
6月
5月
4月
3月
2月
2007
12月
Feed
Follow @googlecloud_jp
Useful Links
G Suite
Google Cloud Platform
Google 検索アプライアンス
Google Maps
G Suite 公式アップデート情報