機械学習・AI論文を入力してみた!話題のDiffusion Modelで画像生成の実験
![man sitting in front of computer](https://i0.wp.com/vasteelab.com/wp-content/uploads/2022/06/pexels-photo-380769.jpeg?resize=150%2C150&ssl=1)
最近、Diffusion modelが画像生成技術の分野で注目を集めています。特に、Stable diffusion v1.5はその性能の高さから多くのクリエイターや研究者に使われています。そこで、今回は機械学習・AI系の論文を入力し ...
Transformerはn-steps先をどのように推論しているのか?
![person reaching out to a robot](https://i0.wp.com/vasteelab.com/wp-content/uploads/2022/06/pexels-photo-8386434.jpeg?resize=150%2C150&ssl=1)
TransformerのPytorch実装では、学習時に入力をエンコードして、出力を生成するためにnステップ反復し続けるのではなく、ステップごとに入力とターゲットのテンソルを渡す必要がある。では、推論時にTransformerはどうや ...
時系列予測にTransformerを適用する際の勘所
![Thumbnail of post image 088](https://i0.wp.com/vasteelab.com/wp-content/uploads/2020/07/cropped-mockaroon-bzLhhI3MpYY-unsplash.jpg?resize=150%2C150&ssl=1)
Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting からTransformerを時系 ...
ViTで出力されるベクトルの次元の意味
![Thumbnail of post image 126](https://i0.wp.com/vasteelab.com/wp-content/uploads/2020/07/taylor-heery-71sp4JBYO-U-unsplash-2.jpg?resize=150%2C150&ssl=1)
Huggingfaceで下記コマンドを実行すると、ViTの最終層のベクトルが得られる
model = ViTModel.from_pretrained('google/vit-base-patch32-224-in21k', o ...BERTをfine-tuningする際のTips [自分用メモ]
![Thumbnail of post image 056](https://i0.wp.com/vasteelab.com/wp-content/uploads/2020/07/samuel-yongbo-kwon-wrQsfMKwElI-unsplash.jpg?resize=150%2C150&ssl=1)
AI SHIFT様が作成されたブログ記事が分かりやすかったので、筆者としての解釈を自分用メモとして残すことにする。
Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI ...
wav2vecで用いられるロス関数に関して
![Thumbnail of post image 065](https://i0.wp.com/vasteelab.com/wp-content/uploads/2020/07/cropped-mockaroon-bzLhhI3MpYY-unsplash.jpg?resize=150%2C150&ssl=1)
Facebook(現メタ) AIが公開した新しい音声フレームワークwav2vecに関して、ロス関数にフォーカスをあてた説明を行う。
wav2vec 2.0: A Framework for Self-Supervised ...