エンジニア

2015.09.04

AWSソリューションDays ビッグデータによるビジネス革新手法 参加レポート

加藤です。
先日、AWSソリューションDays2015 Day2 ビッグデータによるビジネス革新手法に参加してきましたのでレポート致します。
AWS系のイベントは業界的な事もあってかラフな方が多い印象なのですが、今回のイベントはスーツの方が多くいらっしゃいました。
平日フルにもかかわらず常に8割程度埋まっており注目の高さが伺えました。
そして驚いたのはスライドをカメラを取る人がいなかった事!
資料を後で共有する常にアナウンスしていたのが効果的だったのでしょうか。
これを言い訳にする訳ではないですが、会場の写真はないです(`・ω・´)キリッ
本題ですが、皆さんが一様におっしゃっていたのは、
データだけ渡して分析してねと言うのは失敗ケースと強調されていました。
分析する際は段階を追って進まないと失敗するのに、ひとっ飛びするパターンが多いそうです。
個人的にBIツールまで持っていければガラガラポンできそうな気がしてましたが、一発で革新なんて考えない方が良いですね。
もちろん専門的な統計学や経験等のパターン等はあると思いますが。。。
現場・システム・経営等々の横断的なチームで分担ではなく協力、運用してブラッシュアップしていくのが大事そうです。
データサイエンティストがいれば最強ですが今は引く手数多でしょう。。。
そうそう。データをグリグリしているとデータ間のインスピレーションが増すそうです。
なんとなくこのデータを付け合わせればこうなる気がするみたいな。
大抵そういう時は良い結果につながる事のが多いそうです。
なんでしょうか。この修行の成果的な。何気にこういうの大好きですが、私の場合は「そのうち考えるのをやめた」状態になりそうです。
私が勝手に汲み取った感じでは、ビックデータは流れを見るもので、
データ間のインスピレーションの欠片を見つけたら、イマジネーションを膨らませてロジカルに落とし込む。
アジャイル的にガンガン回すべし。
AWSで初期投資少ない。
ビビるな始めろ。
之極意也。
間違ってたらすいません(/ω\)
運用の大事なポイントとしては、大量のデータが集まってくるので、
データ品質を保つためにDWHへの集約と徹底が必要になりそうです。時にはETLも視野に入れると良い。
また、ビッグデータとはいえ不必要なデータと判断したら捨てるのも大事との事。断捨離やー。
そして大量のデータを捌き始めると機械学習が顔を出してくる様です。むぅ。。。
Deep Learningで自動でタグを付けるかっちょいいなー。
技術的な注目としてAmazon.com(小売)のRedshiftの紹介がありました。
大量データをRedshiftで捌くベストプラクティス等がありましたが、
記載して良いのかわからないのでこちらは割愛させて頂きます。
他にも分析手法とか事例とか強いツールの紹介とかAMLについてとか素晴らしい講演がありましたです。なんとなく全体像が見えたのでちょっと色々実験してみようと思います。
それにしてもクラウドやIoTの躍進により、色々な業界が近しくなった事を実感した1日でした。

一覧に戻る