デプロイ

サーバ開発
Hugging FaceのInference Endpointを使って推論サーバを構築する

Transformerの推論モデルを自作のソフトウエアから使う方法は、いくつかの選択肢があります。以前の記事では、AWSのLamdaにモデルをデプロイする方法を紹介しました。 昨日、Hugging Faceからメールが届 […]

続きを読む
サーバ開発
Transformerの学習済みモデルをLambdaにデプロイする(SAM)

前回もTransformerの学習済みモデルをLambdaにデプロイしましたが、別の方法を試してみます。 今回は、AWS Serverless Application Model(sam)を使っています。 同じ目的であれ […]

続きを読む
サーバ開発
Transformerの学習済みモデルをLambdaにデプロイする

前回、flask で作ったAPIをChaliceを使ってLambdaにデプロイしてみました。 この方法は、アプリをzip形式でアップロードします。zip形式は、最大250MBのサイズ制限がありますので、HuggingFa […]

続きを読む
サーバ開発
NetlifyにFlutter Webアプリをデプロイする

Flutterで開発した webアプリを公開する方法には、いくつかあります。公式サイトでは以下の3つが挙げられています。 Firebaseホスティング GitHubPages Google CloudHosting 今回 […]

続きを読む