デプロイ
Hugging FaceのInference Endpointを使って推論サーバを構築する
2022年10月13日
Transformerの推論モデルを自作のソフトウエアから使う方法は、いくつかの選択肢があります。以前の記事では、AWSのLamdaにモデルをデプロイする方法を紹介しました。 昨日、Hugging Faceからメールが届 […]
Transformerの学習済みモデルをLambdaにデプロイする(SAM)
2022年7月19日
前回もTransformerの学習済みモデルをLambdaにデプロイしましたが、別の方法を試してみます。 今回は、AWS Serverless Application Model(sam)を使っています。 同じ目的であれ […]
Transformerの学習済みモデルをLambdaにデプロイする
2022年7月19日
前回、flask で作ったAPIをChaliceを使ってLambdaにデプロイしてみました。 この方法は、アプリをzip形式でアップロードします。zip形式は、最大250MBのサイズ制限がありますので、HuggingFa […]
NetlifyにFlutter Webアプリをデプロイする
2022年7月14日
Flutterで開発した webアプリを公開する方法には、いくつかあります。公式サイトでは以下の3つが挙げられています。 Firebaseホスティング GitHubPages Google CloudHosting 今回 […]