Server

AWS Lambdaの関数スケーリングとローカル実行

投稿日:2023年9月22日 更新日:

はじめに

前回の記事では、AWS LambdaとSQSを組み合わせるシンプルな方法を紹介しました。

今回は引き続きLambdaについて、関数スケーリングとローカルでの実行について紹介します

関数スケーリングについて

まず、関数のスケーリングについて、大まかに説明します。

前提として、Lambda関数は、特に設定しなくてもリクエスト数に応じて自動的にスケーリングしてくれますが、利用者のニーズに応じてカスタマイズすることもできます。

この設定にあたり、どのように同時実行(concurrency)されるかについて抑えておく必要があります。

同時実行とは

同時実行(concurrency)とは、Lambda関数が同時に処理できる未完了のリクエスト数のことです。

リクエストが来るとLambda関数は、実行環境の個別のinstanceをprovisioningします。そして、処理が終わってもしばらくはそのinstanceを破棄せずに維持し、次のリクエストが来たときにそのまま使用することができます。もし、未使用のprovisioning済みのinstanceがなければ、新しいinstanceをprovisioningして、リクエストを処理します。

ただし、無制限にinstanceを増やせるわけではなく、regionごとに上限がきまっています(一般的には1000まで。この数は増やすこともできる)。

regionごとの上限や上限の増やし方については割愛しますので、詳しくは公式ドキュメントをご覧ください。

同時実行の制御方法

同時実行は、予約された同時実行(reserved concurrency)とprovisioningされた同時実行(provisioned concurrency)の2つの方法で制御することができます。

reserved concurrency

予約された同時実行とは、あるLambda関数のために同時実行の枠を確保することを意味します。

これは何かというと、先にも述べた通りregionごとに同時実行の上限が決まっていて、その数はすべてのLambda関数で共有します。もし、重要な処理を行うLambda関数があったとしても、予約された同時実行を設定していなければ、他のLambdaが同時実行の枠をすべて使い切ってしまっている場合、どれかの処理が終わるまで待機しなければいけません。

それを防ぐために、予約された同時実行を設定して、他のLambdaが使えない同時実行の枠を確保することができます。

また、予約された同時実行を設定した場合、その数分のLambda関数が動いていて、かつまだ同時実行の枠に余裕があったとしても、予約された同時実行以上同時実行は行えません。つまり、Lambda関数ごとの同時実行の上限としても扱うことができます。

予約された同時実行の最大数は、regionごとに同時実行の上限よりいくらか少ない値までしか設定できません。

provisioned concurrency

プロビジョニングされた同時実行とは、予め決められた数のprovisioningされたinstanceを常に保持する設定です(つまり、 Hot Standby)。これは別途料金がかかります。

プロビジョニングされた同時実行の最大数は、予約された同時実行よりいくらか少ない値までしか設定できません。

その他

関数のスケーリングについては、他にもバースト(どれくらいのペースでprovisioningされたinstanceを増やすか)の動作についてや、CloudWatchと連携して同時実行を制御する方法などもありますが、これらについては割愛します。詳しくは公式ドキュメントをご覧ください。

ローカルで実行するには

次に紹介するのは、AWSのサービスのmockをローカルで動作させる方法についてです。

AWSのサービスをローカルで実行させたい場合、一般的にはLocalStackを使うことになると思います。

今回は、ローカルでLocalStackでSQSとLambdaを立ち上げ、SQSへのメッセージ送信をトリガーにしてLambda関数を実行してみます。

LocalStackについて

LocalStackは、Dockerのコンテナ上にAWSサービスを擬似的に展開することができます。

community版は無償で使うことができますが、有償のPro版より機能が落とされています(例えば、ECSやRDSなどが使えない)。community版とPro版の比較はこちらをご覧ください。

LocalStackのSetup

LocalStackのSetupはdocker-compose.ymlを書くだけなので簡単です。

用意したら、 docker-compose up -d でコンテナを立ち上げます。

SQSのQueueを作成する

LocalStackが立ち上がったら、AWS CLIコマンドでSQSのQueueを作成します。

このように表示されたらQueueの作成は成功です。

Lambda関数を作成してdeployする

次に、Lambda関数を作成して、Goの実行ファイルをdeployし、SQSと関連付けます。Goのコードは前回の記事sendMessage関数を流用します。

こちらを参考に以下のようなdeployスクリプトを用意しました。

こちらを実行し、このようにLambda関数が作成されていればdeployは成功です。

SQSをトリガーにしてLambdaを実行する

最後に、SQSにメッセージを送って、Lambda関数が実行されるかやってみます。

Dockerのログに以下のような表示がされていれば成功です。

さいごに

Lambdaの関数スケーリングについてと、ローカルでのAWSサービスの実行方法について紹介しました。

おすすめ書籍

AWS運用入門 押さえておきたいAWSの基本と運用ノウハウ AWS設計スキルアップガイド──サービスの選定から、システム構成、運用・移行の設計まで Amazon Web Services基礎からのネットワーク&サーバー構築改訂4版

blog-page_footer_336




blog-page_footer_336




-Server
-

執筆者:

免責事項

このブログは、記事上部に記載のある投稿日時点の一般的な情報を提供するものであり、投資等の勧誘・法的・税務上の助言を提供するものではありません。仮想通貨の投資・損益計算は複雑であり、個々の取引状況や法律の変更によって異なる可能性があります。ブログに記載された情報は参考程度のものであり、特定の状況に基づいた行動の決定には専門家の助言を求めることをお勧めします。当ブログの情報に基づいた行動に関連して生じた損失やリスクについて、筆者は責任を負いかねます。最新の法律や税務情報を確認し、必要に応じて専門家に相談することをお勧めします。


comment

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


関連記事

Conohaのサーバーを借りて、CentOS+MySQL+nginxの環境を作ってみた。

1 はじめに1.1 環境2 Conohaでサーバーをレンタル3 サーバーの初期設定3.1 サーバーにrootユーザーでログイン3.2 ユーザー作成3.3 SSHログインを許可3.4 秘密鍵を生成3.5 ...

CircleCIを使ってみた(RailsのRSpecとデプロイのサンプル)

1 はじめに2 導入するにあたって3 項目B4 補足4.1 開発環境とCI環境でdatabase.ymlが異なる5 さいごに はじめに 個人的に作成しているアプリケーションのCIツールとして、Circ ...

aws

ECSとCWLでのアラームの設定

1 はじめに1.1 全体の流れ2 CloudWatch Logsでロググループを作成する3 ECSでタスク定義を作成(更新)する4 CloudWatch Logsでメトリクスフィルタを作成する5 SN ...

DockerのQuickstart:Compose and Railsをやってみた

1 はじめに1.1 環境1.2 Docker for Macのインストール2 Railsプロジェクトを作成するまで2.1 Railsのプロジェクトディレクトリの作成2.2 Dockerfileの作成2 ...

aws

Amazon ECSでGoのEchoサーバを立ち上げる

1 はじめに2 全体の流れ3 サービスの概要3.1 IAM(Identity and Access Management)3.2 VPC(Virtual Private Cloud)3.3 ECR(E ...

フォロー

blog-page_side_responsive

2023年9月
 12
3456789
10111213141516
17181920212223
24252627282930

アプリ情報

私たちは無料アプリもリリースしています、ぜひご覧ください。 下記のアイコンから無料でダウンロードできます。