Huggingface
Hugging FaceのInference Endpointを使って推論サーバを構築する
2022年10月13日
Transformerの推論モデルを自作のソフトウエアから使う方法は、いくつかの選択肢があります。以前の記事では、AWSのLamdaにモデルをデプロイする方法を紹介しました。 昨日、Hugging Faceからメールが届 […]
Transformerの学習済みモデルをLambdaにデプロイする(SAM)
2022年7月19日
前回もTransformerの学習済みモデルをLambdaにデプロイしましたが、別の方法を試してみます。 今回は、AWS Serverless Application Model(sam)を使っています。 同じ目的であれ […]
Transformerの学習済みモデルをLambdaにデプロイする
2022年7月19日
前回、flask で作ったAPIをChaliceを使ってLambdaにデプロイしてみました。 この方法は、アプリをzip形式でアップロードします。zip形式は、最大250MBのサイズ制限がありますので、HuggingFa […]
応答生成モデルの実装
2022年6月17日
構成の選択 一番最初の記事に記載した通り、iOSのアプリケーションから「発話」をテキストで送信すれば「応答」をテキストで返す様にしたいと思います。 このwebAPIを実装する方法として、大きく2種類あります。 1つは、H […]
応答生成モデルの学習(Text-to-Text Transfer Transformer)
2022年6月16日
ユーザの発話テキストに対して、応答テキストを生成させるためのモデルを作ります。 T5 (Text-to-Text Transfer Transformer) チャットボットを作るときに必要となるモデルは、Text to […]