Pytorchでのログの取り方
学習しているとエポックごとの誤差やテストデータセットでのF1 scoreなどを継続的に記録したいと思うことがある.
こんなときにはwriter.add_scalarを使うのが良い.
下記にサンプルコードを載せる.
from torch.utils.tensorboard import SummaryWriter writer = SummaryWriter("./logs") for epoch in range(EPOCH): for i, data in enumerate(self.train_loader, 0): inputs = data # zero the parameter gradients optimizer.zero_grad() # forward + backward + optimize outputs = temp_net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() loss = loss.detach().numpy() losses.append(loss) writer.add_scalar("loss", loss, epoch*len(self.train_loader)+i)
学習後,
tensorboard –logdir=./logs
あるいは,AWS EC2やCloud9を使っているときは
tensorboard –bind_all –logdir ./logs
を打ち込み,ブラウザに以下を打ち込むとtensorboardにログが表示される.
ディスカッション
コメント一覧
まだ、コメントがありません