Update.
authorFrançois Fleuret <francois@fleuret.org>
Sun, 18 Aug 2024 06:44:23 +0000 (08:44 +0200)
committerFrançois Fleuret <francois@fleuret.org>
Sun, 18 Aug 2024 06:44:23 +0000 (08:44 +0200)
main.py

diff --git a/main.py b/main.py
index 127b71b..db16214 100755 (executable)
--- a/main.py
+++ b/main.py
@@ -1122,6 +1122,9 @@ for n_epoch in range(current_epoch, args.nb_epochs):
     cta = " ".join([f"{float(m.test_accuracy):.04f}" for m in models])
     log_string(f"current_test_accuracies {cta}")
 
+    cta = " ".join([f"{float(m.best_test_accuracy):.04f}" for m in models])
+    log_string(f"current_best_test_accuracies {cta}")
+
     ##################################################
     # If all the models are good enough, generate new quizzes and
     # re-compute the test errors
@@ -1133,6 +1136,7 @@ for n_epoch in range(current_epoch, args.nb_epochs):
             )
             model.best_dict = copy.deepcopy(model.state_dict())
             model.best_test_accuracy = model.test_accuracy
+            model.test_accuracy = 0.0
 
     # we restart
     if total_time_generating_c_quizzes == 0: