ATS test: Give return value a meaning
[oweals/gnunet.git] / src / ats / ats.conf.in
index db70f143a88330a844cdc9975de5137771588cce..53c0de0c5ca598a84f963a8ad3c96f5516ed7fe2 100644 (file)
@@ -1,5 +1,5 @@
 [ats]
-AUTOSTART = @AUTOSTART@
+START_ON_DEMAND = @START_ON_DEMAND@
 @UNIXONLY@ PORT = 2098
 HOSTNAME = localhost
 BINARY = gnunet-service-ats
@@ -8,9 +8,9 @@ ACCEPT_FROM6 = ::1;
 UNIXPATH = $GNUNET_RUNTIME_DIR/gnunet-service-ats.sock
 UNIX_MATCH_UID = NO
 UNIX_MATCH_GID = YES
-
+# PREFIX = valgrind
 # Designated assignment mode: PROPORTIONAL / MLP / RIL
-MODE = PROPORTIONAL
+MODE = proportional
 
 # Network specific inbound/outbound quotas
 UNSPECIFIED_QUOTA_IN = 64 KiB
@@ -34,18 +34,25 @@ BLUETOOTH_QUOTA_OUT = 128 KiB
 
 # Proportional specific settings
 # How proportional to preferences is bandwidth distribution in a network
-# 1: Fair with respect to addresses without preferences
-# > 100: The bigger, the more respect is payed to preferences 
-PROP_PROPORTIONALITY_FACTOR = 200
+# 1.0: Fair with respect to addresses without preferences
+# > 1.0: The bigger, the more respect is payed to preferences
+PROP_PROPORTIONALITY_FACTOR = 2.00
 # Should we stick to existing connections are prefer to switch?
-# [100...200], lower value prefers to switch, bigger value is more tolerant
-PROP_STABILITY_FACTOR = 125
+# [1.0...2.0], lower value prefers to switch, bigger value is more tolerant
+PROP_STABILITY_FACTOR = 1.25
 
 # MLP specific settings
 # MLP defaults
 
-# Maximum duration for a solution process
+# Maximum duration for a solution process (both LP and MILP)
 # MLP_MAX_DURATION = 3 s
+# Maximum numbero of iterations for a solution process (only LP)
+# MLP_MAX_ITERATIONS =
+# Tolerated MIP Gap [0.0 .. 1.0], default 0.025
+MLP_MAX_MIP_GAP = 0.025
+# Tolerated LP/MIP Gap [0.0 .. 1.0], default 0.025
+MLP_MAX_LP_MIP_GAP = 0.025
+
 
 # Maximum number of iterations for a solution process
 # MLP_MAX_ITERATIONS = 1024
@@ -72,7 +79,8 @@ MLP_DUMP_SOLUTION_ON_FAIL = YES
 RIL_STEP_TIME_MIN = 500 ms
 RIL_STEP_TIME_MAX = 1000 ms
 
-RIL_ALGORITHM = Q
+# SARSA or Q-LEARNING
+RIL_ALGORITHM = Q-LEARNING
 RIL_DISCOUNT_BETA = 0.7
 RIL_GRADIENT_STEP_SIZE = 0.3
 RIL_TRACE_DECAY = 0.2