Amazon Web Services ブログ

AWS Amplify によるフルスタック開発の進化

高速でパーソナライズされた体験を提供するために、Web アプリケーションの構築とレンダリング方法は、長年にわたって大きく進化してきました。その過程で、Web アプリケーションを構築する開発者の役割も、この進化を反映して変化してきました。本記事では、フルスタックの Web 開発の進化過程と、急速に変化する Web アプリケーションエコシステムやユーザーのニーズに対し、開発者が AWS Amplify を使って適応する方法について説明します。

生成 AI アシスタント Amazon Q を用いて、ソフトウェア開発を加速し、ビジネスデータを活用する

我々は生成AI があらゆる顧客体験を革新する可能性があると考えています。そのために、生成 AI スタックの 3 層すべてで最も包括的な機能を提供すべく、急速にイノベーションを進めています。これらすべてのレイヤーは生成 AI の進化に重要ですが、本記事では上位層にあたるアプリケーション層への投資について説明します。

Amazon Q Business と Amazon Q in Quicksightによって、従業員は社内のナレッジを用いて、データ主導で、より良く素早い判断を可能に

2024年4月30日、Amazon Q の一般提供を発表しました。Amazon Q は、ソフトウェア開発を加速し、企業の内部データを活用するための最も優れた生成 AI 搭載アシスタントです。どの組織でも従業員は、週に数時間を内部情報の検索に費やしています。また、分析の集約、レポート作成、プレゼンテーション作成、ダッシュボードからの洞察の作成と検索、さまざまな顧客や対象者向けのコンテンツ作成にも時間を費やしています。Amazon Q Business と Amazon Q in QuickSight は、これらの作業をより効率化するために開発しました。

AWS Trainium を活用した日本語大規模言語モデルの分散学習と AWS Inferentia2 上での推論環境構築

生成 AI の進化を支える大規模言語モデルの開発及び運用に掛かるコスト、計算機リソースの確保は多くの企業が抱える大きな課題です。AWS では機械学習 (ML) アクセラレーターチップ AWS Trainium、AWS Inferentia2 を自社開発し、これらの課題解決に取り組んでいます。(Anthropic では AWS Trainium、Inferentia の活用を表明しています)
本ブログでは、前半で、AWS Trainium 搭載 Amazon EC2 Trn1 インスタンスを活用した日本語大規模言語モデルの開発事例、大規模分散学習の課題及び実現方法について解説します。
ブログ後半では、公開された日本語大規模モデルを Inferentia2 搭載 Amazon EC2 Inf2 インスタンス上で推論実行する方法について、手順を追って解説します。