bug fix
[oweals/gnunet.git] / src / dht / gnunet-service-dht.c
1 /*
2      This file is part of GNUnet.
3      (C) 2009, 2010 Christian Grothoff (and other contributing authors)
4
5      GNUnet is free software; you can redistribute it and/or modify
6      it under the terms of the GNU General Public License as published
7      by the Free Software Foundation; either version 3, or (at your
8      option) any later version.
9
10      GNUnet is distributed in the hope that it will be useful, but
11      WITHOUT ANY WARRANTY; without even the implied warranty of
12      MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13      General Public License for more details.
14
15      You should have received a copy of the GNU General Public License
16      along with GNUnet; see the file COPYING.  If not, write to the
17      Free Software Foundation, Inc., 59 Temple Place - Suite 330,
18      Boston, MA 02111-1307, USA.
19 */
20
21 /**
22  * @file dht/gnunet-service-dht.c
23  * @brief GNUnet DHT service
24  * @author Christian Grothoff
25  * @author Nathan Evans
26  */
27
28 #include "platform.h"
29 #include "gnunet_block_lib.h"
30 #include "gnunet_client_lib.h"
31 #include "gnunet_getopt_lib.h"
32 #include "gnunet_os_lib.h"
33 #include "gnunet_protocols.h"
34 #include "gnunet_service_lib.h"
35 #include "gnunet_core_service.h"
36 #include "gnunet_signal_lib.h"
37 #include "gnunet_util_lib.h"
38 #include "gnunet_datacache_lib.h"
39 #include "gnunet_transport_service.h"
40 #include "gnunet_hello_lib.h"
41 #include "gnunet_dht_service.h"
42 #include "gnunet_statistics_service.h"
43 #include "dhtlog.h"
44 #include "dht.h"
45 #include <fenv.h>
46
47 #define PRINT_TABLES GNUNET_NO
48
49 #define REAL_DISTANCE GNUNET_NO
50
51 #define EXTRA_CHECKS GNUNET_NO
52
53 /**
54  * How many buckets will we allow total.
55  */
56 #define MAX_BUCKETS sizeof (GNUNET_HashCode) * 8
57
58 /**
59  * Should the DHT issue FIND_PEER requests to get better routing tables?
60  */
61 #define DEFAULT_DO_FIND_PEER GNUNET_YES
62
63 /**
64  * Defines whether find peer requests send their HELLO's outgoing,
65  * or expect replies to contain hellos.
66  */
67 #define FIND_PEER_WITH_HELLO GNUNET_YES
68
69 /**
70  * What is the maximum number of peers in a given bucket.
71  */
72 #define DEFAULT_BUCKET_SIZE 4
73
74 /**
75  * Minimum number of peers we need for "good" routing,
76  * any less than this and we will allow messages to
77  * travel much further through the network!
78  */
79 #define MINIMUM_PEER_THRESHOLD 20
80
81 #define DHT_MAX_RECENT 1000
82
83 #define FIND_PEER_CALC_INTERVAL GNUNET_TIME_relative_multiply (GNUNET_TIME_UNIT_SECONDS, 60)
84
85 /**
86  * Default time to wait to send messages on behalf of other peers.
87  */
88 #define DHT_DEFAULT_P2P_TIMEOUT GNUNET_TIME_relative_multiply (GNUNET_TIME_UNIT_SECONDS, 10)
89
90 /**
91  * Default importance for handling messages on behalf of other peers.
92  */
93 #define DHT_DEFAULT_P2P_IMPORTANCE 0
94
95 /**
96  * How long to keep recent requests around by default.
97  */
98 #define DEFAULT_RECENT_REMOVAL GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_SECONDS, 30)
99
100 /**
101  * Default time to wait to send find peer messages sent by the dht service.
102  */
103 #define DHT_DEFAULT_FIND_PEER_TIMEOUT GNUNET_TIME_relative_multiply (GNUNET_TIME_UNIT_SECONDS, 30)
104
105 /**
106  * Default importance for find peer messages sent by the dht service.
107  */
108 #define DHT_DEFAULT_FIND_PEER_IMPORTANCE 8
109
110 /**
111  * Default replication parameter for find peer messages sent by the dht service.
112  */
113 #define DHT_DEFAULT_FIND_PEER_REPLICATION 4
114
115 /**
116  * Default options for find peer requests sent by the dht service.
117  */
118 #define DHT_DEFAULT_FIND_PEER_OPTIONS GNUNET_DHT_RO_DEMULTIPLEX_EVERYWHERE
119 /*#define DHT_DEFAULT_FIND_PEER_OPTIONS GNUNET_DHT_RO_NONE*/
120
121 /**
122  * How long at least to wait before sending another find peer request.
123  */
124 #define DHT_MINIMUM_FIND_PEER_INTERVAL GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MINUTES, 2)
125
126 /**
127  * How long at most to wait before sending another find peer request.
128  */
129 #define DHT_MAXIMUM_FIND_PEER_INTERVAL GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MINUTES, 8)
130
131 /**
132  * How often to update our preference levels for peers in our routing tables.
133  */
134 #define DHT_DEFAULT_PREFERENCE_INTERVAL GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MINUTES, 2)
135
136 /**
137  * How long at most on average will we allow a reply forward to take
138  * (before we quit sending out new requests)
139  */
140 #define MAX_REQUEST_TIME GNUNET_TIME_relative_multiply (GNUNET_TIME_UNIT_SECONDS, 1)
141
142 /**
143  * How many initial requests to send out (in true Kademlia fashion)
144  */
145 #define DHT_KADEMLIA_REPLICATION 3
146
147 /*
148  * Default frequency for sending malicious get messages
149  */
150 #define DEFAULT_MALICIOUS_GET_FREQUENCY 1000 /* Number of milliseconds */
151
152 /*
153  * Default frequency for sending malicious put messages
154  */
155 #define DEFAULT_MALICIOUS_PUT_FREQUENCY 1000 /* Default is in milliseconds */
156
157
158 #define DHT_DEFAULT_PING_DELAY GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MINUTES, 1)
159
160 /**
161  * Real maximum number of hops, at which point we refuse
162  * to forward the message.
163  */
164 #define DEFAULT_MAX_HOPS 10
165
166 /**
167  * How many time differences between requesting a core send and
168  * the actual callback to remember.
169  */
170 #define MAX_REPLY_TIMES 8
171
172 enum ConvergenceOptions
173 {
174    /**
175     * Use the linear method for convergence.
176     */
177    DHT_CONVERGE_LINEAR,
178
179    /**
180     * Converge using a fast converging square
181     * function.
182     */
183    DHT_CONVERGE_SQUARE,
184
185    /**
186     * Converge using a slower exponential
187     * function.
188     */
189    DHT_CONVERGE_EXPONENTIAL,
190
191    /**
192     * Don't do any special convergence, allow
193     * the algorithm to hopefully route to closer
194     * peers more often.
195     */
196    DHT_CONVERGE_RANDOM,
197
198    /**
199     * Binary convergence, start routing to closest
200     * only after set number of hops.
201     */
202    DHT_CONVERGE_BINARY
203 };
204
205 /**
206  * Linked list of messages to send to clients.
207  */
208 struct P2PPendingMessage
209 {
210   /**
211    * Pointer to next item in the list
212    */
213   struct P2PPendingMessage *next;
214
215   /**
216    * Pointer to previous item in the list
217    */
218   struct P2PPendingMessage *prev;
219
220   /**
221    * Message importance level.
222    */
223   unsigned int importance;
224
225   /**
226    * Time when this request was scheduled to be sent.
227    */
228   struct GNUNET_TIME_Absolute scheduled;
229
230   /**
231    * How long to wait before sending message.
232    */
233   struct GNUNET_TIME_Relative timeout;
234
235   /**
236    * Actual message to be sent; // avoid allocation
237    */
238   const struct GNUNET_MessageHeader *msg; // msg = (cast) &pm[1]; // memcpy (&pm[1], data, len);
239
240 };
241
242 /**
243  * Per-peer information.
244  */
245 struct PeerInfo
246 {
247   /**
248    * Next peer entry (DLL)
249    */
250   struct PeerInfo *next;
251
252   /**
253    *  Prev peer entry (DLL)
254    */
255   struct PeerInfo *prev;
256
257   /**
258    * Head of pending messages to be sent to this peer.
259    */
260   struct P2PPendingMessage *head;
261
262   /**
263    * Tail of pending messages to be sent to this peer.
264    */
265   struct P2PPendingMessage *tail;
266
267   /**
268    * Core handle for sending messages to this peer.
269    */
270   struct GNUNET_CORE_TransmitHandle *th;
271
272   /**
273    * Task for scheduling message sends.
274    */
275   GNUNET_SCHEDULER_TaskIdentifier send_task;
276
277   /**
278    * Task for scheduling preference updates
279    */
280   GNUNET_SCHEDULER_TaskIdentifier preference_task;
281
282   /**
283    * Preference update context
284    */
285   struct GNUNET_CORE_InformationRequestContext *info_ctx;
286
287   /**
288    * What is the average latency for replies received?
289    */
290   struct GNUNET_TIME_Relative latency;
291
292   /**
293    * What is the identity of the peer?
294    */
295   struct GNUNET_PeerIdentity id;
296
297   /**
298    * Transport level distance to peer.
299    */
300   unsigned int distance;
301
302   /**
303    * Holds matching bits from peer to current target,
304    * used for distance comparisons between peers. May
305    * be considered a really bad idea.
306    * FIXME: remove this value (create struct which holds
307    *        a single peerinfo and the matching bits, use
308    *        that to pass to comparitor)
309    */
310   unsigned int matching_bits;
311
312   /**
313    * Task for scheduling periodic ping messages for this peer.
314    */
315   GNUNET_SCHEDULER_TaskIdentifier ping_task;
316 };
317
318 /**
319  * Peers are grouped into buckets.
320  */
321 struct PeerBucket
322 {
323   /**
324    * Head of DLL
325    */
326   struct PeerInfo *head;
327
328   /**
329    * Tail of DLL
330    */
331   struct PeerInfo *tail;
332
333   /**
334    * Number of peers in the bucket.
335    */
336   unsigned int peers_size;
337 };
338
339 /**
340  * Linked list of messages to send to clients.
341  */
342 struct PendingMessage
343 {
344   /**
345    * Pointer to next item in the list
346    */
347   struct PendingMessage *next;
348
349   /**
350    * Pointer to previous item in the list
351    */
352   struct PendingMessage *prev;
353
354   /**
355    * Actual message to be sent; // avoid allocation
356    */
357   const struct GNUNET_MessageHeader *msg; // msg = (cast) &pm[1]; // memcpy (&pm[1], data, len);
358
359 };
360
361 /**
362  * Struct containing information about a client,
363  * handle to connect to it, and any pending messages
364  * that need to be sent to it.
365  */
366 struct ClientList
367 {
368   /**
369    * Linked list of active clients
370    */
371   struct ClientList *next;
372
373   /**
374    * The handle to this client
375    */
376   struct GNUNET_SERVER_Client *client_handle;
377
378   /**
379    * Handle to the current transmission request, NULL
380    * if none pending.
381    */
382   struct GNUNET_CONNECTION_TransmitHandle *transmit_handle;
383
384   /**
385    * Linked list of pending messages for this client
386    */
387   struct PendingMessage *pending_head;
388
389   /**
390    * Tail of linked list of pending messages for this client
391    */
392   struct PendingMessage *pending_tail;
393 };
394
395
396 /**
397  * Context containing information about a DHT message received.
398  */
399 struct DHT_MessageContext
400 {
401   /**
402    * The client this request was received from.
403    * (NULL if received from another peer)
404    */
405   struct ClientList *client;
406
407   /**
408    * The peer this request was received from.
409    * (NULL if received from local client)
410    */
411   const struct GNUNET_PeerIdentity *peer;
412
413   /**
414    * Bloomfilter for this routing request.
415    */
416   struct GNUNET_CONTAINER_BloomFilter *bloom;
417
418   /**
419    * extended query (see gnunet_block_lib.h).
420    */
421   const void *xquery;
422
423   /**
424    * Bloomfilter to filter out duplicate replies.
425    */
426   struct GNUNET_CONTAINER_BloomFilter *reply_bf;
427
428   /**
429    * The key this request was about
430    */
431   GNUNET_HashCode key;
432
433   /**
434    * How long should we wait to transmit this request?
435    */
436   struct GNUNET_TIME_Relative timeout;
437
438   /**
439    * The unique identifier of this request
440    */
441   uint64_t unique_id;
442
443   /**
444    * Number of bytes in xquery.
445    */
446   size_t xquery_size;
447
448   /**
449    * Mutator value for the reply_bf, see gnunet_block_lib.h
450    */
451   uint32_t reply_bf_mutator;
452
453   /**
454    * Desired replication level
455    */
456   uint32_t replication;
457
458   /**
459    * Network size estimate, either ours or the sum of
460    * those routed to thus far. =~ Log of number of peers
461    * chosen from for this request.
462    */
463   uint32_t network_size;
464
465   /**
466    * Any message options for this request
467    */
468   uint32_t msg_options;
469
470   /**
471    * How many hops has the message already traversed?
472    */
473   uint32_t hop_count;
474
475   /**
476    * How important is this message?
477    */
478   unsigned int importance;
479
480   /**
481    * Should we (still) forward the request on to other peers?
482    */
483   int do_forward;
484
485   /**
486    * Did we forward this message? (may need to remember it!)
487    */
488   int forwarded;
489
490   /**
491    * Are we the closest known peer to this key (out of our neighbors?)
492    */
493   int closest;
494 };
495
496 /**
497  * Record used for remembering what peers are waiting for what
498  * responses (based on search key).
499  */
500 struct DHTRouteSource
501 {
502   /**
503    * This is a DLL.
504    */
505   struct DHTRouteSource *next;
506
507   /**
508    * This is a DLL.
509    */
510   struct DHTRouteSource *prev;
511
512   /**
513    * Source of the request.  Replies should be forwarded to
514    * this peer.
515    */
516   struct GNUNET_PeerIdentity source;
517
518   /**
519    * If this was a local request, remember the client; otherwise NULL.
520    */
521   struct ClientList *client;
522
523   /**
524    * Pointer to this nodes heap location (for removal)
525    */
526   struct GNUNET_CONTAINER_HeapNode *hnode;
527
528   /**
529    * Back pointer to the record storing this information.
530    */
531   struct DHTQueryRecord *record;
532
533   /**
534    * Task to remove this entry on timeout.
535    */
536   GNUNET_SCHEDULER_TaskIdentifier delete_task;
537
538   /**
539    * Bloomfilter of peers we have already sent back as
540    * replies to the initial request.  Allows us to not
541    * forward the same peer multiple times for a find peer
542    * request.
543    */
544   struct GNUNET_CONTAINER_BloomFilter *find_peers_responded;
545
546 };
547
548 /**
549  * Entry in the DHT routing table.
550  */
551 struct DHTQueryRecord
552 {
553   /**
554    * Head of DLL for result forwarding.
555    */
556   struct DHTRouteSource *head;
557
558   /**
559    * Tail of DLL for result forwarding.
560    */
561   struct DHTRouteSource *tail;
562
563   /**
564    * Key that the record concerns.
565    */
566   GNUNET_HashCode key;
567
568   /**
569    * GET message of this record (what we already forwarded?).
570    */
571   //DV_DHT_MESSAGE get; Try to get away with not saving this.
572
573   /**
574    * Bloomfilter of the peers we've replied to so far
575    */
576   //struct GNUNET_BloomFilter *bloom_results; Don't think we need this, just remove from DLL on response.
577
578 };
579
580 /**
581  * Context used to calculate the number of find peer messages
582  * per X time units since our last scheduled find peer message
583  * was sent.  If we have seen too many messages, delay or don't
584  * send our own out.
585  */
586 struct FindPeerMessageContext
587 {
588   unsigned int count;
589
590   struct GNUNET_TIME_Absolute start;
591
592   struct GNUNET_TIME_Absolute end;
593 };
594
595 /**
596  * DHT Routing results structure
597  */
598 struct DHTResults
599 {
600   /*
601    * Min heap for removal upon reaching limit
602    */
603   struct GNUNET_CONTAINER_Heap *minHeap;
604
605   /*
606    * Hashmap for fast key based lookup
607    */
608   struct GNUNET_CONTAINER_MultiHashMap *hashmap;
609
610 };
611
612 /**
613  * DHT structure for recent requests.
614  */
615 struct RecentRequests
616 {
617   /*
618    * Min heap for removal upon reaching limit
619    */
620   struct GNUNET_CONTAINER_Heap *minHeap;
621
622   /*
623    * Hashmap for key based lookup
624    */
625   struct GNUNET_CONTAINER_MultiHashMap *hashmap;
626 };
627
628 struct RecentRequest
629 {
630   /**
631    * Position of this node in the min heap.
632    */
633   struct GNUNET_CONTAINER_HeapNode *heap_node;
634
635   /**
636    * Bloomfilter containing entries for peers
637    * we forwarded this request to.
638    */
639   struct GNUNET_CONTAINER_BloomFilter *bloom;
640
641   /**
642    * Timestamp of this request, for ordering
643    * the min heap.
644    */
645   struct GNUNET_TIME_Absolute timestamp;
646
647   /**
648    * Key of this request.
649    */
650   GNUNET_HashCode key;
651
652   /**
653    * Unique identifier for this request.
654    */
655   uint64_t uid;
656
657   /**
658    * Task to remove this entry on timeout.
659    */
660   GNUNET_SCHEDULER_TaskIdentifier remove_task;
661 };
662
663 struct RepublishContext
664 {
665   /**
666    * Key to republish.
667    */
668   GNUNET_HashCode key;
669
670   /**
671    * Type of the data.
672    */
673   unsigned int type;
674
675 };
676
677 /**
678  * Which kind of convergence will we be using?
679  */
680 static enum ConvergenceOptions converge_option;
681
682 /**
683  * Modifier for the convergence function
684  */
685 static float converge_modifier;
686
687 /**
688  * Recent requests by hash/uid and by time inserted.
689  */
690 static struct RecentRequests recent;
691
692 /**
693  * Context to use to calculate find peer rates.
694  */
695 static struct FindPeerMessageContext find_peer_context;
696
697 /**
698  * Don't use our routing algorithm, always route
699  * to closest peer; initially send requests to 3
700  * peers.
701  */
702 static unsigned int strict_kademlia;
703
704 /**
705  * Routing option to end routing when closest peer found.
706  */
707 static unsigned int stop_on_closest;
708
709 /**
710  * Routing option to end routing when data is found.
711  */
712 static unsigned int stop_on_found;
713
714 /**
715  * Whether DHT needs to manage find peer requests, or
716  * an external force will do it on behalf of the DHT.
717  */
718 static unsigned int do_find_peer;
719
720 /**
721  * Once we have stored an item in the DHT, refresh it
722  * according to our republish interval.
723  */
724 static unsigned int do_republish;
725
726 /**
727  * Use the "real" distance metric when selecting the
728  * next routing hop.  Can be less accurate.
729  */
730 static unsigned int use_real_distance;
731
732 /**
733  * How many peers have we added since we sent out our last
734  * find peer request?
735  */
736 static unsigned int newly_found_peers;
737
738 /**
739  * Container of active queries we should remember
740  */
741 static struct DHTResults forward_list;
742
743 /**
744  * Handle to the datacache service (for inserting/retrieving data)
745  */
746 static struct GNUNET_DATACACHE_Handle *datacache;
747
748 /**
749  * Handle for the statistics service.
750  */
751 struct GNUNET_STATISTICS_Handle *stats;
752
753
754 /**
755  * The configuration the DHT service is running with
756  */
757 static const struct GNUNET_CONFIGURATION_Handle *cfg;
758
759 /**
760  * Handle to the core service
761  */
762 static struct GNUNET_CORE_Handle *coreAPI;
763
764 /**
765  * Handle to the transport service, for getting our hello
766  */
767 static struct GNUNET_TRANSPORT_Handle *transport_handle;
768
769 /**
770  * The identity of our peer.
771  */
772 static struct GNUNET_PeerIdentity my_identity;
773
774 /**
775  * Short id of the peer, for printing
776  */
777 static char *my_short_id;
778
779 /**
780  * Our HELLO
781  */
782 static struct GNUNET_MessageHeader *my_hello;
783
784 /**
785  * Task to run when we shut down, cleaning up all our trash
786  */
787 static GNUNET_SCHEDULER_TaskIdentifier cleanup_task;
788
789 /**
790  * The lowest currently used bucket.
791  */
792 static unsigned int lowest_bucket; /* Initially equal to MAX_BUCKETS - 1 */
793
794 /**
795  * The maximum number of hops before we stop routing messages.
796  */
797 static unsigned long long max_hops;
798
799 /**
800  * How often to republish content we have previously stored.
801  */
802 static struct GNUNET_TIME_Relative dht_republish_frequency;
803
804 /**
805  * GNUNET_YES to stop at max_hops, GNUNET_NO to heuristically decide when to stop forwarding.
806  */
807 static int use_max_hops;
808
809 /**
810  * The buckets (Kademlia routing table, complete with growth).
811  * Array of size MAX_BUCKET_SIZE.
812  */
813 static struct PeerBucket k_buckets[MAX_BUCKETS]; /* From 0 to MAX_BUCKETS - 1 */
814
815 /**
816  * Hash map of all known peers, for easy removal from k_buckets on disconnect.
817  */
818 static struct GNUNET_CONTAINER_MultiHashMap *all_known_peers;
819
820 /**
821  * Recently seen find peer requests.
822  */
823 static struct GNUNET_CONTAINER_MultiHashMap *recent_find_peer_requests;
824
825 /**
826  * Maximum size for each bucket.
827  */
828 static unsigned int bucket_size = DEFAULT_BUCKET_SIZE; /* Initially equal to DEFAULT_BUCKET_SIZE */
829
830 /**
831  * List of active clients.
832  */
833 static struct ClientList *client_list;
834
835 /**
836  * Handle to the DHT logger.
837  */
838 static struct GNUNET_DHTLOG_Handle *dhtlog_handle;
839
840 /*
841  * Whether or not to send routing debugging information
842  * to the dht logging server
843  */
844 static unsigned int debug_routes;
845
846 /*
847  * Whether or not to send FULL route information to
848  * logging server
849  */
850 static unsigned int debug_routes_extended;
851
852 /*
853  * GNUNET_YES or GNUNET_NO, whether or not to act as
854  * a malicious node which drops all messages
855  */
856 static unsigned int malicious_dropper;
857
858 /*
859  * GNUNET_YES or GNUNET_NO, whether or not to act as
860  * a malicious node which sends out lots of GETS
861  */
862 static unsigned int malicious_getter;
863
864 /**
865  * GNUNET_YES or GNUNET_NO, whether or not to act as
866  * a malicious node which sends out lots of PUTS
867  */
868 static unsigned int malicious_putter;
869
870 /**
871  * Frequency for malicious get requests.
872  */
873 static unsigned long long malicious_get_frequency;
874
875 /**
876  * Frequency for malicious put requests.
877  */
878 static unsigned long long malicious_put_frequency;
879
880 /**
881  * Reply times for requests, if we are busy, don't send any
882  * more requests!
883  */
884 static struct GNUNET_TIME_Relative reply_times[MAX_REPLY_TIMES];
885
886 /**
887  * Current counter for replies.
888  */
889 static unsigned int reply_counter;
890
891 /**
892  * Our handle to the BLOCK library.
893  */
894 static struct GNUNET_BLOCK_Context *block_context;
895
896
897 /**
898  * Forward declaration.
899  */
900 static size_t 
901 send_generic_reply (void *cls, size_t size, void *buf);
902
903
904 /** Declare here so retry_core_send is aware of it */
905 static size_t 
906 core_transmit_notify (void *cls,
907                       size_t size, void *buf);
908
909 /**
910  * Convert unique ID to hash code.
911  *
912  * @param uid unique ID to convert
913  * @param hash set to uid (extended with zeros)
914  */
915 static void
916 hash_from_uid (uint64_t uid,
917                GNUNET_HashCode *hash)
918 {
919   memset (hash, 0, sizeof(GNUNET_HashCode));
920   *((uint64_t*)hash) = uid;
921 }
922
923 #if AVG
924 /**
925  * Calculate the average send time between messages so that we can
926  * ignore certain requests if we get too busy.
927  *
928  * @return the average time between asking core to send a message
929  *         and when the buffer for copying it is passed
930  */
931 static struct GNUNET_TIME_Relative get_average_send_delay()
932 {
933   unsigned int i;
934   unsigned int divisor;
935   struct GNUNET_TIME_Relative average_time;
936   average_time = GNUNET_TIME_relative_get_zero();
937   divisor = 0;
938   for (i = 0; i < MAX_REPLY_TIMES; i++)
939   {
940     average_time = GNUNET_TIME_relative_add(average_time, reply_times[i]);
941     if (reply_times[i].abs_value == (uint64_t)0)
942       continue;
943     else
944       divisor++;
945   }
946   if (divisor == 0)
947   {
948     return average_time;
949   }
950
951   average_time = GNUNET_TIME_relative_divide(average_time, divisor);
952   fprintf(stderr, 
953           "Avg send delay: %u sends is %llu\n",
954           divisor, 
955           (unsigned long long) average_time.abs_value);
956   return average_time;
957 }
958 #endif
959
960 /**
961  * Given the largest send delay, artificially decrease it
962  * so the next time around we may have a chance at sending
963  * again.
964  */
965 static void decrease_max_send_delay(struct GNUNET_TIME_Relative max_time)
966 {
967   unsigned int i;
968   for (i = 0; i < MAX_REPLY_TIMES; i++)
969     {
970       if (reply_times[i].rel_value == max_time.rel_value)
971         {
972           reply_times[i].rel_value = reply_times[i].rel_value / 2;
973           return;
974         }
975     }
976 }
977
978 /**
979  * Find the maximum send time of the recently sent values.
980  *
981  * @return the average time between asking core to send a message
982  *         and when the buffer for copying it is passed
983  */
984 static struct GNUNET_TIME_Relative get_max_send_delay()
985 {
986   unsigned int i;
987   struct GNUNET_TIME_Relative max_time;
988   max_time = GNUNET_TIME_relative_get_zero();
989
990   for (i = 0; i < MAX_REPLY_TIMES; i++)
991   {
992     if (reply_times[i].rel_value > max_time.rel_value)
993       max_time.rel_value = reply_times[i].rel_value;
994   }
995
996   if (max_time.rel_value > MAX_REQUEST_TIME.rel_value)
997     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Max send delay was %llu\n", 
998                (unsigned long long) max_time.rel_value);
999   return max_time;
1000 }
1001
1002 static void
1003 increment_stats(const char *value)
1004 {
1005   if (stats != NULL)
1006     {
1007       GNUNET_STATISTICS_update (stats, value, 1, GNUNET_NO);
1008     }
1009 }
1010
1011 /**
1012  *  Try to send another message from our core send list
1013  */
1014 static void
1015 try_core_send (void *cls,
1016                const struct GNUNET_SCHEDULER_TaskContext *tc)
1017 {
1018   struct PeerInfo *peer = cls;
1019   struct P2PPendingMessage *pending;
1020   size_t ssize;
1021
1022   peer->send_task = GNUNET_SCHEDULER_NO_TASK;
1023
1024   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
1025     return;
1026
1027   if (peer->th != NULL)
1028     return; /* Message send already in progress */
1029
1030   pending = peer->head;
1031   if (pending != NULL)
1032     {
1033       ssize = ntohs(pending->msg->size);
1034 #if DEBUG_DHT > 1
1035      GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
1036                 "`%s:%s': Calling notify_transmit_ready with size %d for peer %s\n", my_short_id,
1037                 "DHT", ssize, GNUNET_i2s(&peer->id));
1038 #endif
1039       pending->scheduled = GNUNET_TIME_absolute_get();
1040       reply_counter++;
1041       if (reply_counter >= MAX_REPLY_TIMES)
1042         reply_counter = 0;
1043       peer->th = GNUNET_CORE_notify_transmit_ready(coreAPI, pending->importance,
1044                                                    pending->timeout, &peer->id,
1045                                                    ssize, &core_transmit_notify, peer);
1046     }
1047 }
1048
1049 /**
1050  * Function called to send a request out to another peer.
1051  * Called both for locally initiated requests and those
1052  * received from other peers.
1053  *
1054  * @param msg the encapsulated message
1055  * @param peer the peer to forward the message to
1056  * @param msg_ctx the context of the message (hop count, bloom, etc.)
1057  */
1058 static void 
1059 forward_result_message (const struct GNUNET_MessageHeader *msg,
1060                         struct PeerInfo *peer,
1061                         struct DHT_MessageContext *msg_ctx)
1062 {
1063   struct GNUNET_DHT_P2PRouteResultMessage *result_message;
1064   struct P2PPendingMessage *pending;
1065   size_t msize;
1066   size_t psize;
1067
1068   increment_stats(STAT_RESULT_FORWARDS);
1069   msize = sizeof (struct GNUNET_DHT_P2PRouteResultMessage) + ntohs(msg->size);
1070   GNUNET_assert(msize <= GNUNET_SERVER_MAX_MESSAGE_SIZE);
1071   psize = sizeof(struct P2PPendingMessage) + msize;
1072   pending = GNUNET_malloc(psize);
1073   pending->msg = (struct GNUNET_MessageHeader *)&pending[1];
1074   pending->importance = DHT_SEND_PRIORITY;
1075   pending->timeout = GNUNET_TIME_relative_get_forever();
1076   result_message = (struct GNUNET_DHT_P2PRouteResultMessage *)pending->msg;
1077   result_message->header.size = htons(msize);
1078   result_message->header.type = htons(GNUNET_MESSAGE_TYPE_DHT_P2P_ROUTE_RESULT);
1079   result_message->put_path_length = htons(0); /* FIXME: implement */
1080   result_message->get_path_length = htons(0); /* FIXME: implement */
1081   result_message->options = htonl(msg_ctx->msg_options);
1082   result_message->hop_count = htonl(msg_ctx->hop_count + 1);
1083   GNUNET_assert(GNUNET_OK == GNUNET_CONTAINER_bloomfilter_get_raw_data(msg_ctx->bloom, result_message->bloomfilter, DHT_BLOOM_SIZE));
1084   result_message->unique_id = GNUNET_htonll(msg_ctx->unique_id);
1085   memcpy(&result_message->key, &msg_ctx->key, sizeof(GNUNET_HashCode));
1086   memcpy(&result_message[1], msg, ntohs(msg->size));
1087 #if DEBUG_DHT > 1
1088   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Adding pending message size %d for peer %s\n", my_short_id, "DHT", msize, GNUNET_i2s(&peer->id));
1089 #endif
1090   GNUNET_CONTAINER_DLL_insert_after(peer->head, peer->tail, peer->tail, pending);
1091   if (peer->send_task == GNUNET_SCHEDULER_NO_TASK)
1092     peer->send_task = GNUNET_SCHEDULER_add_now(&try_core_send, peer);
1093 }
1094
1095
1096 /**
1097  * Called when core is ready to send a message we asked for
1098  * out to the destination.
1099  *
1100  * @param cls closure (NULL)
1101  * @param size number of bytes available in buf
1102  * @param buf where the callee should write the message
1103  * @return number of bytes written to buf
1104  */
1105 static size_t 
1106 core_transmit_notify (void *cls,
1107                       size_t size, void *buf)
1108 {
1109   struct PeerInfo *peer = cls;
1110   char *cbuf = buf;
1111   struct P2PPendingMessage *pending;
1112
1113   size_t off;
1114   size_t msize;
1115   peer->th = NULL;
1116   if (buf == NULL)
1117     {
1118       /* client disconnected */
1119 #if DEBUG_DHT
1120       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG, "`%s:%s': buffer was NULL\n", my_short_id, "DHT");
1121 #endif
1122       return 0;
1123     }
1124
1125   if (peer->head == NULL)
1126     return 0;
1127
1128   off = 0;
1129   pending = peer->head;
1130   reply_times[reply_counter] = GNUNET_TIME_absolute_get_difference(pending->scheduled, GNUNET_TIME_absolute_get());
1131   msize = ntohs(pending->msg->size);
1132   if (msize <= size)
1133     {
1134       off = msize;
1135       memcpy (cbuf, pending->msg, msize);
1136       GNUNET_CONTAINER_DLL_remove (peer->head,
1137                                    peer->tail,
1138                                    pending);
1139 #if DEBUG_DHT > 1
1140       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Removing pending message size %d for peer %s\n", my_short_id, "DHT", msize, GNUNET_i2s(&peer->id));
1141 #endif
1142       GNUNET_free (pending);
1143     }
1144 #if SMART
1145   while (NULL != pending &&
1146           (size - off >= (msize = ntohs (pending->msg->size))))
1147     {
1148 #if DEBUG_DHT_ROUTING
1149       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "`%s:%s' : transmit_notify (core) called with size %d, available %d\n", my_short_id, "dht service", msize, size);
1150 #endif
1151       memcpy (&cbuf[off], pending->msg, msize);
1152       off += msize;
1153       GNUNET_CONTAINER_DLL_remove (peer->head,
1154                                    peer->tail,
1155                                    pending);
1156       GNUNET_free (pending);
1157       pending = peer->head;
1158     }
1159 #endif
1160   if ((peer->head != NULL) && (peer->send_task == GNUNET_SCHEDULER_NO_TASK))
1161     peer->send_task = GNUNET_SCHEDULER_add_now(&try_core_send, peer);
1162 #if DEBUG_DHT > 1
1163   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "`%s:%s' : transmit_notify (core) called with size %d, available %d, returning %d\n", my_short_id, "dht service", msize, size, off);
1164 #endif
1165   return off;
1166 }
1167
1168
1169 /**
1170  * Compute the distance between have and target as a 32-bit value.
1171  * Differences in the lower bits must count stronger than differences
1172  * in the higher bits.
1173  *
1174  * @return 0 if have==target, otherwise a number
1175  *           that is larger as the distance between
1176  *           the two hash codes increases
1177  */
1178 static unsigned int
1179 distance (const GNUNET_HashCode * target, const GNUNET_HashCode * have)
1180 {
1181   unsigned int bucket;
1182   unsigned int msb;
1183   unsigned int lsb;
1184   unsigned int i;
1185
1186   /* We have to represent the distance between two 2^9 (=512)-bit
1187      numbers as a 2^5 (=32)-bit number with "0" being used for the
1188      two numbers being identical; furthermore, we need to
1189      guarantee that a difference in the number of matching
1190      bits is always represented in the result.
1191
1192      We use 2^32/2^9 numerical values to distinguish between
1193      hash codes that have the same LSB bit distance and
1194      use the highest 2^9 bits of the result to signify the
1195      number of (mis)matching LSB bits; if we have 0 matching
1196      and hence 512 mismatching LSB bits we return -1 (since
1197      512 itself cannot be represented with 9 bits) */
1198
1199   /* first, calculate the most significant 9 bits of our
1200      result, aka the number of LSBs */
1201   bucket = GNUNET_CRYPTO_hash_matching_bits (target, have);
1202   /* bucket is now a value between 0 and 512 */
1203   if (bucket == 512)
1204     return 0;                   /* perfect match */
1205   if (bucket == 0)
1206     return (unsigned int) -1;   /* LSB differs; use max (if we did the bit-shifting
1207                                    below, we'd end up with max+1 (overflow)) */
1208
1209   /* calculate the most significant bits of the final result */
1210   msb = (512 - bucket) << (32 - 9);
1211   /* calculate the 32-9 least significant bits of the final result by
1212      looking at the differences in the 32-9 bits following the
1213      mismatching bit at 'bucket' */
1214   lsb = 0;
1215   for (i = bucket + 1;
1216        (i < sizeof (GNUNET_HashCode) * 8) && (i < bucket + 1 + 32 - 9); i++)
1217     {
1218       if (GNUNET_CRYPTO_hash_get_bit (target, i) != GNUNET_CRYPTO_hash_get_bit (have, i))
1219         lsb |= (1 << (bucket + 32 - 9 - i));    /* first bit set will be 10,
1220                                                    last bit set will be 31 -- if
1221                                                    i does not reach 512 first... */
1222     }
1223   return msb | lsb;
1224 }
1225
1226 /**
1227  * Return a number that is larger the closer the
1228  * "have" GNUNET_hash code is to the "target".
1229  *
1230  * @return inverse distance metric, non-zero.
1231  *         Must fudge the value if NO bits match.
1232  */
1233 static unsigned int
1234 inverse_distance (const GNUNET_HashCode * target,
1235                   const GNUNET_HashCode * have)
1236 {
1237   if (GNUNET_CRYPTO_hash_matching_bits(target, have) == 0)
1238     return 1; /* Never return 0! */
1239   return ((unsigned int) -1) - distance (target, have);
1240 }
1241
1242 /**
1243  * Find the optimal bucket for this key, regardless
1244  * of the current number of buckets in use.
1245  *
1246  * @param hc the hashcode to compare our identity to
1247  *
1248  * @return the proper bucket index, or GNUNET_SYSERR
1249  *         on error (same hashcode)
1250  */
1251 static int find_bucket(const GNUNET_HashCode *hc)
1252 {
1253   unsigned int bits;
1254
1255   bits = GNUNET_CRYPTO_hash_matching_bits(&my_identity.hashPubKey, hc);
1256   if (bits == MAX_BUCKETS)
1257     return GNUNET_SYSERR;
1258   return MAX_BUCKETS - bits - 1;
1259 }
1260
1261 /**
1262  * Find which k-bucket this peer should go into,
1263  * taking into account the size of the k-bucket
1264  * array.  This means that if more bits match than
1265  * there are currently buckets, lowest_bucket will
1266  * be returned.
1267  *
1268  * @param hc GNUNET_HashCode we are finding the bucket for.
1269  *
1270  * @return the proper bucket index for this key,
1271  *         or GNUNET_SYSERR on error (same hashcode)
1272  */
1273 static int find_current_bucket(const GNUNET_HashCode *hc)
1274 {
1275   int actual_bucket;
1276   actual_bucket = find_bucket(hc);
1277
1278   if (actual_bucket == GNUNET_SYSERR) /* hc and our peer identity match! */
1279     return lowest_bucket;
1280   else if (actual_bucket < lowest_bucket) /* actual_bucket not yet used */
1281     return lowest_bucket;
1282   else
1283     return actual_bucket;
1284 }
1285
1286 #if EXTRA_CHECKS
1287 /**
1288  * Find a routing table entry from a peer identity
1289  *
1290  * @param peer the peer to look up
1291  *
1292  * @return the bucket number holding the peer, GNUNET_SYSERR if not found
1293  */
1294 static int
1295 find_bucket_by_peer(const struct PeerInfo *peer)
1296 {
1297   int bucket;
1298   struct PeerInfo *pos;
1299
1300   for (bucket = lowest_bucket; bucket < MAX_BUCKETS - 1; bucket++)
1301     {
1302       pos = k_buckets[bucket].head;
1303       while (pos != NULL)
1304         {
1305           if (peer == pos)
1306             return bucket;
1307           pos = pos->next;
1308         }
1309     }
1310
1311   return GNUNET_SYSERR; /* No such peer. */
1312 }
1313 #endif
1314
1315 #if PRINT_TABLES
1316 /**
1317  * Print the complete routing table for this peer.
1318  */
1319 static void
1320 print_routing_table ()
1321 {
1322   int bucket;
1323   struct PeerInfo *pos;
1324   char char_buf[30000];
1325   int char_pos;
1326   memset(char_buf, 0, sizeof(char_buf));
1327   char_pos = 0;
1328   char_pos += sprintf(&char_buf[char_pos], "Printing routing table for peer %s\n", my_short_id);
1329   //fprintf(stderr, "Printing routing table for peer %s\n", my_short_id);
1330   for (bucket = lowest_bucket; bucket < MAX_BUCKETS; bucket++)
1331     {
1332       pos = k_buckets[bucket].head;
1333       char_pos += sprintf(&char_buf[char_pos], "Bucket %d:\n", bucket);
1334       //fprintf(stderr, "Bucket %d:\n", bucket);
1335       while (pos != NULL)
1336         {
1337           //fprintf(stderr, "\tPeer %s, best bucket %d, %d bits match\n", GNUNET_i2s(&pos->id), find_bucket(&pos->id.hashPubKey), GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, &my_identity.hashPubKey));
1338           char_pos += sprintf(&char_buf[char_pos], "\tPeer %s, best bucket %d, %d bits match\n", GNUNET_i2s(&pos->id), find_bucket(&pos->id.hashPubKey), GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, &my_identity.hashPubKey));
1339           pos = pos->next;
1340         }
1341     }
1342   fprintf(stderr, "%s", char_buf);
1343   fflush(stderr);
1344 }
1345 #endif
1346
1347 /**
1348  * Find a routing table entry from a peer identity
1349  *
1350  * @param peer the peer identity to look up
1351  *
1352  * @return the routing table entry, or NULL if not found
1353  */
1354 static struct PeerInfo *
1355 find_peer_by_id(const struct GNUNET_PeerIdentity *peer)
1356 {
1357   int bucket;
1358   struct PeerInfo *pos;
1359   bucket = find_current_bucket(&peer->hashPubKey);
1360
1361   if (0 == memcmp(&my_identity, peer, sizeof(struct GNUNET_PeerIdentity)))
1362     return NULL;
1363
1364   pos = k_buckets[bucket].head;
1365   while (pos != NULL)
1366     {
1367       if (0 == memcmp(&pos->id, peer, sizeof(struct GNUNET_PeerIdentity)))
1368         return pos;
1369       pos = pos->next;
1370     }
1371   return NULL; /* No such peer. */
1372 }
1373
1374 /* Forward declaration */
1375 static void
1376 update_core_preference (void *cls,
1377                         const struct GNUNET_SCHEDULER_TaskContext *tc);
1378 /**
1379  * Function called with statistics about the given peer.
1380  *
1381  * @param cls closure
1382  * @param peer identifies the peer
1383  * @param bpm_in set to the current bandwidth limit (receiving) for this peer
1384  * @param bpm_out set to the current bandwidth limit (sending) for this peer
1385  * @param amount set to the amount that was actually reserved or unreserved;
1386  *               either the full requested amount or zero (no partial reservations)
1387  * @param preference current traffic preference for the given peer
1388  */
1389 static void
1390 update_core_preference_finish (void *cls,
1391                                const struct GNUNET_PeerIdentity * peer,
1392                                struct GNUNET_BANDWIDTH_Value32NBO bpm_in,
1393                                struct GNUNET_BANDWIDTH_Value32NBO bpm_out,
1394                                int amount, uint64_t preference)
1395 {
1396   struct PeerInfo *peer_info = cls;
1397   peer_info->info_ctx = NULL;
1398   GNUNET_SCHEDULER_add_delayed(DHT_DEFAULT_PREFERENCE_INTERVAL, &update_core_preference, peer_info);
1399 }
1400
1401 static void
1402 update_core_preference (void *cls,
1403                         const struct GNUNET_SCHEDULER_TaskContext *tc)
1404 {
1405   struct PeerInfo *peer = cls;
1406   uint64_t preference;
1407   unsigned int matching;
1408   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
1409     {
1410       return;
1411     }
1412   matching = GNUNET_CRYPTO_hash_matching_bits(&my_identity.hashPubKey, &peer->id.hashPubKey);
1413   if (matching >= 64)
1414     {
1415       GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "Peer identifier matches by %u bits, only shifting as much as we can!\n", matching);
1416       matching = 63;
1417     }
1418   preference = 1LL << matching;
1419   peer->info_ctx = GNUNET_CORE_peer_change_preference (cfg,
1420                                                        &peer->id,
1421                                                        GNUNET_TIME_relative_get_forever(),
1422                                                        GNUNET_BANDWIDTH_value_init (UINT32_MAX),
1423                                                        0,
1424                                                        preference,
1425                                                        &update_core_preference_finish,
1426                                                        peer);
1427 }
1428
1429 /**
1430  * Really add a peer to a bucket (only do assertions
1431  * on size, etc.)
1432  *
1433  * @param peer GNUNET_PeerIdentity of the peer to add
1434  * @param bucket the already figured out bucket to add
1435  *        the peer to
1436  * @param latency the core reported latency of this peer
1437  * @param distance the transport level distance to this peer
1438  *
1439  * @return the newly added PeerInfo
1440  */
1441 static struct PeerInfo *
1442 add_peer(const struct GNUNET_PeerIdentity *peer,
1443          unsigned int bucket,
1444          struct GNUNET_TIME_Relative latency,
1445          unsigned int distance)
1446 {
1447   struct PeerInfo *new_peer;
1448   GNUNET_assert(bucket < MAX_BUCKETS);
1449   GNUNET_assert(peer != NULL);
1450   new_peer = GNUNET_malloc(sizeof(struct PeerInfo));
1451   new_peer->latency = latency;
1452   new_peer->distance = distance;
1453
1454   memcpy(&new_peer->id, peer, sizeof(struct GNUNET_PeerIdentity));
1455
1456   GNUNET_CONTAINER_DLL_insert_after(k_buckets[bucket].head,
1457                                     k_buckets[bucket].tail,
1458                                     k_buckets[bucket].tail,
1459                                     new_peer);
1460   k_buckets[bucket].peers_size++;
1461
1462   if ((GNUNET_CRYPTO_hash_matching_bits(&my_identity.hashPubKey, &peer->hashPubKey) > 0) && (k_buckets[bucket].peers_size <= bucket_size))
1463     {
1464 #if DO_UPDATE_PREFERENCE
1465       new_peer->preference_task = GNUNET_SCHEDULER_add_now(&update_core_preference, new_peer);
1466 #endif
1467     }
1468
1469   return new_peer;
1470 }
1471
1472 /**
1473  * Given a peer and its corresponding bucket,
1474  * remove it from that bucket.  Does not free
1475  * the PeerInfo struct, nor cancel messages
1476  * or free messages waiting to be sent to this
1477  * peer!
1478  *
1479  * @param peer the peer to remove
1480  * @param bucket the bucket the peer belongs to
1481  */
1482 static void remove_peer (struct PeerInfo *peer,
1483                          unsigned int bucket)
1484 {
1485   GNUNET_assert(k_buckets[bucket].peers_size > 0);
1486   GNUNET_CONTAINER_DLL_remove(k_buckets[bucket].head,
1487                               k_buckets[bucket].tail,
1488                               peer);
1489   k_buckets[bucket].peers_size--;
1490 #if CHANGE_LOWEST
1491   if ((bucket == lowest_bucket) && (k_buckets[lowest_bucket].peers_size == 0) && (lowest_bucket < MAX_BUCKETS - 1))
1492     lowest_bucket++;
1493 #endif
1494 }
1495
1496 /**
1497  * Removes peer from a bucket, then frees associated
1498  * resources and frees peer.
1499  *
1500  * @param peer peer to be removed and freed
1501  * @param bucket which bucket this peer belongs to
1502  */
1503 static void delete_peer (struct PeerInfo *peer,
1504                          unsigned int bucket)
1505 {
1506   struct P2PPendingMessage *pos;
1507   struct P2PPendingMessage *next;
1508 #if EXTRA_CHECKS
1509   struct PeerInfo *peer_pos;
1510
1511   peer_pos = k_buckets[bucket].head;
1512   while ((peer_pos != NULL) && (peer_pos != peer))
1513     peer_pos = peer_pos->next;
1514   if (peer_pos == NULL)
1515     {
1516       GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "%s:%s: Expected peer `%s' in bucket %d\n", my_short_id, "DHT", GNUNET_i2s(&peer->id), bucket);
1517       GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "%s:%s: Lowest bucket: %d, find_current_bucket: %d, peer resides in bucket: %d\n", my_short_id, "DHT", lowest_bucket, find_current_bucket(&peer->id.hashPubKey), find_bucket_by_peer(peer));
1518     }
1519   GNUNET_assert(peer_pos != NULL);
1520 #endif
1521   remove_peer(peer, bucket); /* First remove the peer from its bucket */
1522
1523   if (peer->send_task != GNUNET_SCHEDULER_NO_TASK)
1524     GNUNET_SCHEDULER_cancel(peer->send_task);
1525   if ((peer->th != NULL) && (coreAPI != NULL))
1526     GNUNET_CORE_notify_transmit_ready_cancel(peer->th);
1527
1528   pos = peer->head;
1529   while (pos != NULL) /* Remove any pending messages for this peer */
1530     {
1531       next = pos->next;
1532       GNUNET_free(pos);
1533       pos = next;
1534     }
1535
1536   GNUNET_assert(GNUNET_CONTAINER_multihashmap_contains(all_known_peers, &peer->id.hashPubKey));
1537   GNUNET_assert(GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove (all_known_peers, &peer->id.hashPubKey, peer));
1538   GNUNET_free(peer);
1539 }
1540
1541
1542 /**
1543  * Iterator over hash map entries.
1544  *
1545  * @param cls closure
1546  * @param key current key code
1547  * @param value PeerInfo of the peer to move to new lowest bucket
1548  * @return GNUNET_YES if we should continue to
1549  *         iterate,
1550  *         GNUNET_NO if not.
1551  */
1552 static int move_lowest_bucket (void *cls,
1553                                const GNUNET_HashCode * key,
1554                                void *value)
1555 {
1556   struct PeerInfo *peer = value;
1557   int new_bucket;
1558
1559   GNUNET_assert(lowest_bucket > 0);
1560   new_bucket = lowest_bucket - 1;
1561   remove_peer(peer, lowest_bucket);
1562   GNUNET_CONTAINER_DLL_insert_after(k_buckets[new_bucket].head,
1563                                     k_buckets[new_bucket].tail,
1564                                     k_buckets[new_bucket].tail,
1565                                     peer);
1566   k_buckets[new_bucket].peers_size++;
1567   return GNUNET_YES;
1568 }
1569
1570
1571 /**
1572  * The current lowest bucket is full, so change the lowest
1573  * bucket to the next lower down, and move any appropriate
1574  * entries in the current lowest bucket to the new bucket.
1575  */
1576 static void enable_next_bucket()
1577 {
1578   struct GNUNET_CONTAINER_MultiHashMap *to_remove;
1579   struct PeerInfo *pos;
1580   GNUNET_assert(lowest_bucket > 0);
1581   to_remove = GNUNET_CONTAINER_multihashmap_create(bucket_size);
1582   pos = k_buckets[lowest_bucket].head;
1583
1584 #if PRINT_TABLES
1585   fprintf(stderr, "Printing RT before new bucket\n");
1586   print_routing_table();
1587 #endif
1588   /* Populate the array of peers which should be in the next lowest bucket */
1589   while (pos != NULL)
1590     {
1591       if (find_bucket(&pos->id.hashPubKey) < lowest_bucket)
1592         GNUNET_CONTAINER_multihashmap_put(to_remove, &pos->id.hashPubKey, pos, GNUNET_CONTAINER_MULTIHASHMAPOPTION_UNIQUE_ONLY);
1593       pos = pos->next;
1594     }
1595
1596   /* Remove peers from lowest bucket, insert into next lowest bucket */
1597   GNUNET_CONTAINER_multihashmap_iterate(to_remove, &move_lowest_bucket, NULL);
1598   GNUNET_CONTAINER_multihashmap_destroy(to_remove);
1599   lowest_bucket = lowest_bucket - 1;
1600 #if PRINT_TABLES
1601   fprintf(stderr, "Printing RT after new bucket\n");
1602   print_routing_table();
1603 #endif
1604 }
1605
1606 /**
1607  * Find the closest peer in our routing table to the
1608  * given hashcode.
1609  *
1610  * @return The closest peer in our routing table to the
1611  *         key, or NULL on error.
1612  */
1613 static struct PeerInfo *
1614 find_closest_peer (const GNUNET_HashCode *hc)
1615 {
1616   struct PeerInfo *pos;
1617   struct PeerInfo *current_closest;
1618   unsigned int lowest_distance;
1619   unsigned int temp_distance;
1620   int bucket;
1621   int count;
1622
1623   lowest_distance = -1;
1624
1625   if (k_buckets[lowest_bucket].peers_size == 0)
1626     return NULL;
1627
1628   current_closest = NULL;
1629   for (bucket = lowest_bucket; bucket < MAX_BUCKETS; bucket++)
1630     {
1631       pos = k_buckets[bucket].head;
1632       count = 0;
1633       while ((pos != NULL) && (count < bucket_size))
1634         {
1635           temp_distance = distance(&pos->id.hashPubKey, hc);
1636           if (temp_distance <= lowest_distance)
1637             {
1638               lowest_distance = temp_distance;
1639               current_closest = pos;
1640             }
1641           pos = pos->next;
1642           count++;
1643         }
1644     }
1645   GNUNET_assert(current_closest != NULL);
1646   return current_closest;
1647 }
1648
1649
1650 /**
1651  * Function called to send a request out to another peer.
1652  * Called both for locally initiated requests and those
1653  * received from other peers.
1654  *
1655  * @param msg the encapsulated message
1656  * @param peer the peer to forward the message to
1657  * @param msg_ctx the context of the message (hop count, bloom, etc.)
1658  */
1659 static void forward_message (const struct GNUNET_MessageHeader *msg,
1660                              struct PeerInfo *peer,
1661                              struct DHT_MessageContext *msg_ctx)
1662 {
1663   struct GNUNET_DHT_P2PRouteMessage *route_message;
1664   struct P2PPendingMessage *pending;
1665   size_t msize;
1666   size_t psize;
1667
1668   increment_stats(STAT_ROUTE_FORWARDS);
1669   GNUNET_assert(peer != NULL);
1670   if ((msg_ctx->closest != GNUNET_YES) && (peer == find_closest_peer(&msg_ctx->key)))
1671     increment_stats(STAT_ROUTE_FORWARDS_CLOSEST);
1672
1673   msize = sizeof (struct GNUNET_DHT_P2PRouteMessage) + ntohs(msg->size);
1674   GNUNET_assert(msize <= GNUNET_SERVER_MAX_MESSAGE_SIZE);
1675   psize = sizeof(struct P2PPendingMessage) + msize;
1676   pending = GNUNET_malloc(psize);
1677   pending->msg = (struct GNUNET_MessageHeader *)&pending[1];
1678   pending->importance = msg_ctx->importance;
1679   pending->timeout = msg_ctx->timeout;
1680   route_message = (struct GNUNET_DHT_P2PRouteMessage *)pending->msg;
1681   route_message->header.size = htons(msize);
1682   route_message->header.type = htons(GNUNET_MESSAGE_TYPE_DHT_P2P_ROUTE);
1683   route_message->options = htonl(msg_ctx->msg_options);
1684   route_message->hop_count = htonl(msg_ctx->hop_count + 1);
1685   route_message->network_size = htonl(msg_ctx->network_size);
1686   route_message->desired_replication_level = htonl(msg_ctx->replication);
1687   route_message->unique_id = GNUNET_htonll(msg_ctx->unique_id);
1688   if (msg_ctx->bloom != NULL)
1689     GNUNET_assert(GNUNET_OK == GNUNET_CONTAINER_bloomfilter_get_raw_data(msg_ctx->bloom, route_message->bloomfilter, DHT_BLOOM_SIZE));
1690   memcpy(&route_message->key, &msg_ctx->key, sizeof(GNUNET_HashCode));
1691   memcpy(&route_message[1], msg, ntohs(msg->size));
1692 #if DEBUG_DHT > 1
1693   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Adding pending message size %d for peer %s\n", my_short_id, "DHT", msize, GNUNET_i2s(&peer->id));
1694 #endif
1695   GNUNET_CONTAINER_DLL_insert_after(peer->head, peer->tail, peer->tail, pending);
1696   if (peer->send_task == GNUNET_SCHEDULER_NO_TASK)
1697     peer->send_task = GNUNET_SCHEDULER_add_now(&try_core_send, peer);
1698 }
1699
1700 #if DO_PING
1701 /**
1702  * Task used to send ping messages to peers so that
1703  * they don't get disconnected.
1704  *
1705  * @param cls the peer to send a ping message to
1706  * @param tc context, reason, etc.
1707  */
1708 static void
1709 periodic_ping_task (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
1710 {
1711   struct PeerInfo *peer = cls;
1712   struct GNUNET_MessageHeader ping_message;
1713   struct DHT_MessageContext msg_ctx;
1714
1715   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
1716     return;
1717
1718   ping_message.size = htons(sizeof(struct GNUNET_MessageHeader));
1719   ping_message.type = htons(GNUNET_MESSAGE_TYPE_DHT_P2P_PING);
1720
1721   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
1722 #if DEBUG_PING
1723   GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "%s:%s Sending periodic ping to %s\n", my_short_id, "DHT", GNUNET_i2s(&peer->id));
1724 #endif
1725   forward_message(&ping_message, peer, &msg_ctx);
1726   peer->ping_task = GNUNET_SCHEDULER_add_delayed(DHT_DEFAULT_PING_DELAY, &periodic_ping_task, peer);
1727 }
1728
1729 /**
1730  * Schedule PING messages for the top X peers in each
1731  * bucket of the routing table (so core won't disconnect them!)
1732  */
1733 void schedule_ping_messages()
1734 {
1735   unsigned int bucket;
1736   unsigned int count;
1737   struct PeerInfo *pos;
1738   for (bucket = lowest_bucket; bucket < MAX_BUCKETS; bucket++)
1739     {
1740       pos = k_buckets[bucket].head;
1741       count = 0;
1742       while (pos != NULL)
1743         {
1744           if ((count < bucket_size) && (pos->ping_task == GNUNET_SCHEDULER_NO_TASK))
1745             GNUNET_SCHEDULER_add_now(&periodic_ping_task, pos);
1746           else if ((count >= bucket_size) && (pos->ping_task != GNUNET_SCHEDULER_NO_TASK))
1747             {
1748               GNUNET_SCHEDULER_cancel(pos->ping_task);
1749               pos->ping_task = GNUNET_SCHEDULER_NO_TASK;
1750             }
1751           pos = pos->next;
1752           count++;
1753         }
1754     }
1755 }
1756 #endif
1757
1758 /**
1759  * Attempt to add a peer to our k-buckets.
1760  *
1761  * @param peer the peer identity of the peer being added
1762  * @param bucket the bucket that we want this peer to go in
1763  * @param latency transport latency of this peer
1764  * @param distance transport distance to this peer
1765  *
1766  * @return NULL if the peer was not added,
1767  *         pointer to PeerInfo for new peer otherwise
1768  */
1769 static struct PeerInfo *
1770 try_add_peer(const struct GNUNET_PeerIdentity *peer,
1771              unsigned int bucket,
1772              struct GNUNET_TIME_Relative latency,
1773              unsigned int distance)
1774 {
1775   int peer_bucket;
1776   struct PeerInfo *new_peer;
1777
1778   if (0 == memcmp(&my_identity, peer, sizeof(struct GNUNET_PeerIdentity)))
1779     return NULL;
1780
1781   peer_bucket = find_current_bucket(&peer->hashPubKey);
1782
1783   GNUNET_assert(peer_bucket >= lowest_bucket);
1784   new_peer = add_peer(peer, peer_bucket, latency, distance);
1785
1786   if ((k_buckets[lowest_bucket].peers_size) >= bucket_size)
1787     enable_next_bucket();
1788 #if DO_PING
1789   schedule_ping_messages();
1790 #endif
1791   return new_peer;
1792 }
1793
1794
1795 /**
1796  * Task run to check for messages that need to be sent to a client.
1797  *
1798  * @param client a ClientList, containing the client and any messages to be sent to it
1799  */
1800 static void
1801 process_pending_messages (struct ClientList *client)
1802
1803   if (client->pending_head == NULL) 
1804     return;    
1805   if (client->transmit_handle != NULL) 
1806     return;
1807
1808   client->transmit_handle =
1809     GNUNET_SERVER_notify_transmit_ready (client->client_handle,
1810                                          ntohs (client->pending_head->msg->
1811                                                 size),
1812                                          GNUNET_TIME_UNIT_FOREVER_REL,
1813                                          &send_generic_reply, client);
1814 }
1815
1816 /**
1817  * Callback called as a result of issuing a GNUNET_SERVER_notify_transmit_ready
1818  * request.  A ClientList is passed as closure, take the head of the list
1819  * and copy it into buf, which has the result of sending the message to the
1820  * client.
1821  *
1822  * @param cls closure to this call
1823  * @param size maximum number of bytes available to send
1824  * @param buf where to copy the actual message to
1825  *
1826  * @return the number of bytes actually copied, 0 indicates failure
1827  */
1828 static size_t
1829 send_generic_reply (void *cls, size_t size, void *buf)
1830 {
1831   struct ClientList *client = cls;
1832   char *cbuf = buf;
1833   struct PendingMessage *reply;
1834   size_t off;
1835   size_t msize;
1836
1837   client->transmit_handle = NULL;
1838   if (buf == NULL)             
1839     {
1840       /* client disconnected */
1841       return 0;
1842     }
1843   off = 0;
1844   while ( (NULL != (reply = client->pending_head)) &&
1845           (size >= off + (msize = ntohs (reply->msg->size))))
1846     {
1847       GNUNET_CONTAINER_DLL_remove (client->pending_head,
1848                                    client->pending_tail,
1849                                    reply);
1850       memcpy (&cbuf[off], reply->msg, msize);
1851       GNUNET_free (reply);
1852       off += msize;
1853     }
1854   process_pending_messages (client);
1855 #if DEBUG_DHT
1856   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
1857               "Transmitted %u bytes of replies to client\n",
1858               (unsigned int) off);
1859 #endif
1860   return off;
1861 }
1862
1863
1864 /**
1865  * Add a PendingMessage to the clients list of messages to be sent
1866  *
1867  * @param client the active client to send the message to
1868  * @param pending_message the actual message to send
1869  */
1870 static void
1871 add_pending_message (struct ClientList *client,
1872                      struct PendingMessage *pending_message)
1873 {
1874   GNUNET_CONTAINER_DLL_insert_after (client->pending_head,
1875                                      client->pending_tail,
1876                                      client->pending_tail,
1877                                      pending_message);
1878   process_pending_messages (client);
1879 }
1880
1881
1882 /**
1883  * Called when a reply needs to be sent to a client, as
1884  * a result it found to a GET or FIND PEER request.
1885  *
1886  * @param client the client to send the reply to
1887  * @param message the encapsulated message to send
1888  * @param uid the unique identifier of this request
1889  */
1890 static void
1891 send_reply_to_client (struct ClientList *client,
1892                       const struct GNUNET_MessageHeader *message,
1893                       unsigned long long uid,
1894                       const GNUNET_HashCode *key)
1895 {
1896   struct GNUNET_DHT_RouteResultMessage *reply;
1897   struct PendingMessage *pending_message;
1898   uint16_t msize;
1899   size_t tsize;
1900 #if DEBUG_DHT
1901   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
1902               "`%s:%s': Sending reply to client.\n", my_short_id, "DHT");
1903 #endif
1904   msize = ntohs (message->size);
1905   tsize = sizeof (struct GNUNET_DHT_RouteResultMessage) + msize;
1906   if (tsize >= GNUNET_SERVER_MAX_MESSAGE_SIZE)
1907     {
1908       GNUNET_break_op (0);
1909       return;
1910     }
1911   pending_message = GNUNET_malloc (sizeof (struct PendingMessage) + tsize);
1912   pending_message->msg = (struct GNUNET_MessageHeader *)&pending_message[1];
1913   reply = (struct GNUNET_DHT_RouteResultMessage *)&pending_message[1];
1914   reply->header.type = htons (GNUNET_MESSAGE_TYPE_DHT_LOCAL_ROUTE_RESULT);
1915   reply->header.size = htons (tsize);
1916   reply->put_path_length = htons(0); /* FIXME: implement */
1917   reply->get_path_length = htons(0); /* FIXME: implement */
1918   reply->unique_id = GNUNET_htonll (uid);
1919   reply->key = *key;
1920   memcpy (&reply[1], message, msize);
1921   add_pending_message (client, pending_message);
1922 }
1923
1924 /**
1925  * Consider whether or not we would like to have this peer added to
1926  * our routing table.  Check whether bucket for this peer is full,
1927  * if so return negative; if not return positive.  Since peers are
1928  * only added on CORE level connect, this doesn't actually add the
1929  * peer to the routing table.
1930  *
1931  * @param peer the peer we are considering adding
1932  *
1933  * @return GNUNET_YES if we want this peer, GNUNET_NO if not (bucket
1934  *         already full)
1935  */
1936 static int consider_peer (struct GNUNET_PeerIdentity *peer)
1937 {
1938   int bucket;
1939
1940   if ((GNUNET_YES == GNUNET_CONTAINER_multihashmap_contains(all_known_peers, &peer->hashPubKey)) || (0 == memcmp(&my_identity, peer, sizeof(struct GNUNET_PeerIdentity))))
1941     return GNUNET_NO; /* We already know this peer (are connected even!) */
1942   bucket = find_current_bucket(&peer->hashPubKey);
1943
1944   if ((k_buckets[bucket].peers_size < bucket_size) || ((bucket == lowest_bucket) && (lowest_bucket > 0)))
1945     return GNUNET_YES;
1946
1947   return GNUNET_NO;
1948 }
1949
1950 /**
1951  * Main function that handles whether or not to route a result
1952  * message to other peers, or to send to our local client.
1953  *
1954  * @param msg the result message to be routed
1955  * @param msg_ctx context of the message we are routing
1956  *
1957  * @return the number of peers the message was routed to,
1958  *         GNUNET_SYSERR on failure
1959  */
1960 static int route_result_message(struct GNUNET_MessageHeader *msg,
1961                                 struct DHT_MessageContext *msg_ctx)
1962 {
1963   struct GNUNET_PeerIdentity new_peer;
1964   struct DHTQueryRecord *record;
1965   struct DHTRouteSource *pos;
1966   struct PeerInfo *peer_info;
1967   const struct GNUNET_MessageHeader *hello_msg;
1968
1969   increment_stats(STAT_RESULTS);
1970   /**
1971    * If a find peer result message is received and contains a valid
1972    * HELLO for another peer, offer it to the transport service.
1973    */
1974   if (ntohs(msg->type) == GNUNET_MESSAGE_TYPE_DHT_FIND_PEER_RESULT)
1975     {
1976       if (ntohs(msg->size) <= sizeof(struct GNUNET_MessageHeader))
1977         GNUNET_break_op(0);
1978
1979       hello_msg = &msg[1];
1980       if ((ntohs(hello_msg->type) != GNUNET_MESSAGE_TYPE_HELLO) || (GNUNET_SYSERR == GNUNET_HELLO_get_id((const struct GNUNET_HELLO_Message *)hello_msg, &new_peer)))
1981       {
1982         GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "%s:%s Received non-HELLO message type in find peer result message!\n", my_short_id, "DHT");
1983         GNUNET_break_op(0);
1984         return GNUNET_NO;
1985       }
1986       else /* We have a valid hello, and peer id stored in new_peer */
1987       {
1988         find_peer_context.count++;
1989         increment_stats(STAT_FIND_PEER_REPLY);
1990         if (GNUNET_YES == consider_peer(&new_peer))
1991         {
1992           increment_stats(STAT_HELLOS_PROVIDED);
1993           GNUNET_TRANSPORT_offer_hello(transport_handle, hello_msg);
1994           GNUNET_CORE_peer_request_connect(cfg, GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_SECONDS, 5), &new_peer, NULL, NULL);
1995         }
1996       }
1997     }
1998
1999   if (malicious_dropper == GNUNET_YES)
2000     record = NULL;
2001   else
2002     record = GNUNET_CONTAINER_multihashmap_get(forward_list.hashmap, &msg_ctx->key);
2003
2004   if (record == NULL) /* No record of this message! */
2005     {
2006 #if DEBUG_DHT
2007     GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2008                 "`%s:%s': Have no record of response key %s uid %llu\n", my_short_id,
2009                 "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id);
2010 #endif
2011 #if DEBUG_DHT_ROUTING
2012       if ((debug_routes_extended) && (dhtlog_handle != NULL))
2013         {
2014           dhtlog_handle->insert_route (NULL,
2015                                        msg_ctx->unique_id,
2016                                        DHTLOG_RESULT,
2017                                        msg_ctx->hop_count,
2018                                        GNUNET_SYSERR,
2019                                        &my_identity,
2020                                        &msg_ctx->key,
2021                                        msg_ctx->peer, NULL);
2022         }
2023 #endif
2024       if (msg_ctx->bloom != NULL)
2025         {
2026           GNUNET_CONTAINER_bloomfilter_free(msg_ctx->bloom);
2027           msg_ctx->bloom = NULL;
2028         }
2029       return 0;
2030     }
2031
2032   pos = record->head;
2033   while (pos != NULL)
2034     {
2035 #if STRICT_FORWARDING
2036       if (ntohs(msg->type) == GNUNET_MESSAGE_TYPE_DHT_FIND_PEER_RESULT) /* If we have already forwarded this peer id, don't do it again! */
2037         {
2038           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (pos->find_peers_responded, &new_peer.hashPubKey))
2039           {
2040             increment_stats("# find peer responses NOT forwarded (bloom match)");
2041             pos = pos->next;
2042             continue;
2043           }
2044           else
2045             GNUNET_CONTAINER_bloomfilter_add(pos->find_peers_responded, &new_peer.hashPubKey);
2046         }
2047 #endif
2048
2049       if (0 == memcmp(&pos->source, &my_identity, sizeof(struct GNUNET_PeerIdentity))) /* Local client (or DHT) initiated request! */
2050         {
2051 #if DEBUG_DHT
2052           GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2053                       "`%s:%s': Sending response key %s uid %llu to client\n", my_short_id,
2054                       "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id);
2055 #endif
2056 #if DEBUG_DHT_ROUTING
2057           if ((debug_routes_extended) && (dhtlog_handle != NULL))
2058             {
2059               dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_RESULT,
2060                                            msg_ctx->hop_count,
2061                                            GNUNET_YES, &my_identity, &msg_ctx->key,
2062                                            msg_ctx->peer, NULL);
2063             }
2064 #endif
2065           increment_stats(STAT_RESULTS_TO_CLIENT);
2066           if (ntohs(msg->type) == GNUNET_MESSAGE_TYPE_DHT_GET_RESULT)
2067             increment_stats(STAT_GET_REPLY);
2068
2069           send_reply_to_client(pos->client, msg, 
2070                                msg_ctx->unique_id,
2071                                &msg_ctx->key);
2072         }
2073       else /* Send to peer */
2074         {
2075           peer_info = find_peer_by_id(&pos->source);
2076           if (peer_info == NULL) /* Didn't find the peer in our routing table, perhaps peer disconnected! */
2077             {
2078               pos = pos->next;
2079               continue;
2080             }
2081
2082           if (msg_ctx->bloom == NULL)
2083             msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
2084           GNUNET_CONTAINER_bloomfilter_add (msg_ctx->bloom, &my_identity.hashPubKey);
2085           if ((GNUNET_NO == GNUNET_CONTAINER_bloomfilter_test (msg_ctx->bloom, &peer_info->id.hashPubKey)))
2086             {
2087 #if DEBUG_DHT
2088               GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2089                           "`%s:%s': Forwarding response key %s uid %llu to peer %s\n", my_short_id,
2090                           "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id, GNUNET_i2s(&peer_info->id));
2091 #endif
2092 #if DEBUG_DHT_ROUTING
2093               if ((debug_routes_extended) && (dhtlog_handle != NULL))
2094                 {
2095                   dhtlog_handle->insert_route (NULL, msg_ctx->unique_id,
2096                                                DHTLOG_RESULT,
2097                                                msg_ctx->hop_count,
2098                                                GNUNET_NO, &my_identity, &msg_ctx->key,
2099                                                msg_ctx->peer, &pos->source);
2100                 }
2101 #endif
2102               forward_result_message(msg, peer_info, msg_ctx);
2103             }
2104           else
2105             {
2106 #if DEBUG_DHT
2107               GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2108                           "`%s:%s': NOT Forwarding response (bloom match) key %s uid %llu to peer %s\n", my_short_id,
2109                           "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id, GNUNET_i2s(&peer_info->id));
2110 #endif
2111             }
2112         }
2113       pos = pos->next;
2114     }
2115   if (msg_ctx->bloom != NULL)
2116     GNUNET_CONTAINER_bloomfilter_free(msg_ctx->bloom);
2117   return 0;
2118 }
2119
2120 /**
2121  * Iterator for local get request results,
2122  *
2123  * @param cls closure for iterator, a DatacacheGetContext
2124  * @param exp when does this value expire?
2125  * @param key the key this data is stored under
2126  * @param size the size of the data identified by key
2127  * @param data the actual data
2128  * @param type the type of the data
2129  *
2130  * @return GNUNET_OK to continue iteration, anything else
2131  * to stop iteration.
2132  */
2133 static int
2134 datacache_get_iterator (void *cls,
2135                         struct GNUNET_TIME_Absolute exp,
2136                         const GNUNET_HashCode * key,
2137                         size_t size, const char *data, 
2138                         enum GNUNET_BLOCK_Type type)
2139 {
2140   struct DHT_MessageContext *msg_ctx = cls;
2141   struct DHT_MessageContext *new_msg_ctx;
2142   struct GNUNET_DHT_GetResultMessage *get_result;
2143   enum GNUNET_BLOCK_EvaluationResult eval;
2144
2145 #if DEBUG_DHT
2146   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2147               "`%s:%s': Received `%s' response from datacache\n", my_short_id, "DHT", "GET");
2148 #endif  
2149   eval = GNUNET_BLOCK_evaluate (block_context,
2150                                 type,
2151                                 key,
2152                                 &msg_ctx->reply_bf,
2153                                 msg_ctx->reply_bf_mutator,
2154                                 msg_ctx->xquery,
2155                                 msg_ctx->xquery_size,
2156                                 data,
2157                                 size);
2158   switch (eval)
2159     {
2160     case GNUNET_BLOCK_EVALUATION_OK_LAST:
2161       msg_ctx->do_forward = GNUNET_NO;
2162     case GNUNET_BLOCK_EVALUATION_OK_MORE:
2163       new_msg_ctx = GNUNET_malloc(sizeof(struct DHT_MessageContext));
2164       memcpy(new_msg_ctx, msg_ctx, sizeof(struct DHT_MessageContext));
2165       get_result =
2166         GNUNET_malloc (sizeof (struct GNUNET_DHT_GetResultMessage) + size);
2167       get_result->header.type = htons (GNUNET_MESSAGE_TYPE_DHT_GET_RESULT);
2168       get_result->header.size =
2169         htons (sizeof (struct GNUNET_DHT_GetResultMessage) + size);
2170       get_result->expiration = GNUNET_TIME_absolute_hton(exp);
2171       get_result->type = htons (type);
2172       memcpy (&get_result[1], data, size);
2173       new_msg_ctx->peer = &my_identity;
2174       new_msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
2175       new_msg_ctx->hop_count = 0;
2176       new_msg_ctx->importance = DHT_DEFAULT_P2P_IMPORTANCE + 2; /* Make result routing a higher priority */
2177       new_msg_ctx->timeout = DHT_DEFAULT_P2P_TIMEOUT;
2178       increment_stats(STAT_GET_RESPONSE_START);
2179       route_result_message(&get_result->header, new_msg_ctx);
2180       GNUNET_free(new_msg_ctx);
2181       GNUNET_free (get_result);
2182       break;
2183     case GNUNET_BLOCK_EVALUATION_OK_DUPLICATE:
2184 #if DEBUG_DHT
2185       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2186                   "`%s:%s': Duplicate block error\n", my_short_id, "DHT");
2187 #endif
2188       break;
2189     case GNUNET_BLOCK_EVALUATION_RESULT_INVALID:
2190 #if DEBUG_DHT
2191       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2192                   "`%s:%s': Invalid request error\n", my_short_id, "DHT");
2193 #endif
2194       break;
2195     case GNUNET_BLOCK_EVALUATION_REQUEST_VALID:
2196 #if DEBUG_DHT
2197       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2198                   "`%s:%s': Valid request, no results.\n", my_short_id, "DHT");
2199 #endif
2200       GNUNET_break (0);
2201       break;
2202     case GNUNET_BLOCK_EVALUATION_REQUEST_INVALID:
2203       GNUNET_break_op (0);
2204       msg_ctx->do_forward = GNUNET_NO;
2205       break;
2206     case GNUNET_BLOCK_EVALUATION_TYPE_NOT_SUPPORTED:
2207 #if DEBUG_DHT
2208       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2209                   "`%s:%s': Unsupported block type (%u) in response!\n", my_short_id, "DHT", type);
2210 #endif
2211       /* msg_ctx->do_forward = GNUNET_NO;  // not sure... */
2212       break;
2213     }  
2214   return GNUNET_OK;
2215 }
2216
2217
2218 /**
2219  * Main function that handles whether or not to route a message to other
2220  * peers.
2221  *
2222  * @param msg the message to be routed
2223  * @param msg_ctx the context containing all pertinent information about the message
2224  */
2225 static void
2226 route_message(const struct GNUNET_MessageHeader *msg,
2227                struct DHT_MessageContext *msg_ctx);
2228
2229
2230 /**
2231  * Server handler for all dht get requests, look for data,
2232  * if found, send response either to clients or other peers.
2233  *
2234  * @param msg the actual get message
2235  * @param msg_ctx struct containing pertinent information about the get request
2236  *
2237  * @return number of items found for GET request
2238  */
2239 static unsigned int
2240 handle_dht_get (const struct GNUNET_MessageHeader *msg,
2241                 struct DHT_MessageContext *msg_ctx)
2242 {
2243   const struct GNUNET_DHT_GetMessage *get_msg;
2244   uint16_t msize;
2245   uint16_t bf_size;
2246   unsigned int results;
2247   const char *end;
2248   enum GNUNET_BLOCK_Type type;
2249
2250   msize = ntohs (msg->size);
2251   if (msize < sizeof (struct GNUNET_DHT_GetMessage))
2252     {
2253       GNUNET_break (0);
2254       return 0;
2255     }
2256   get_msg = (const struct GNUNET_DHT_GetMessage *) msg;
2257   bf_size = ntohs (get_msg->bf_size);
2258   msg_ctx->xquery_size = ntohs (get_msg->xquery_size);
2259   msg_ctx->reply_bf_mutator = get_msg->bf_mutator; /* FIXME: ntohl? */
2260   if (msize != sizeof (struct GNUNET_DHT_GetMessage) + bf_size + msg_ctx->xquery_size)
2261     {
2262       GNUNET_break (0);
2263       return 0;
2264     }
2265   end = (const char*) &get_msg[1];
2266   if (msg_ctx->xquery_size == 0)
2267     {
2268       msg_ctx->xquery = NULL;
2269     }
2270   else
2271     {
2272       msg_ctx->xquery = (const void*) end;
2273       end += msg_ctx->xquery_size;
2274     }
2275   if (bf_size == 0)
2276     {
2277       msg_ctx->reply_bf = NULL;
2278     }
2279   else
2280     {
2281       msg_ctx->reply_bf = GNUNET_CONTAINER_bloomfilter_init (end,
2282                                                                      bf_size,
2283                                                                      GNUNET_DHT_GET_BLOOMFILTER_K);
2284     }
2285   type = (enum GNUNET_BLOCK_Type) ntohl (get_msg->type);
2286 #if DEBUG_DHT
2287   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2288               "`%s:%s': Received `%s' request, message type %u, key %s, uid %llu\n",
2289               my_short_id,
2290               "DHT", "GET", 
2291               type,
2292               GNUNET_h2s (&msg_ctx->key),
2293               msg_ctx->unique_id);
2294 #endif
2295   increment_stats(STAT_GETS);
2296   results = 0;
2297 #if HAVE_MALICIOUS
2298   if (type == GNUNET_BLOCK_DHT_MALICIOUS_MESSAGE_TYPE)
2299     {
2300       GNUNET_CONTAINER_bloomfilter_free (msg_ctx->reply_bf);
2301       return results;
2302     }
2303 #endif
2304   msg_ctx->do_forward = GNUNET_YES;
2305   if (datacache != NULL)
2306     results
2307       = GNUNET_DATACACHE_get (datacache,
2308                               &msg_ctx->key, type,
2309                               &datacache_get_iterator,
2310                               msg_ctx);
2311 #if DEBUG_DHT
2312       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2313                   "`%s:%s': Found %d results for `%s' request uid %llu\n", my_short_id, "DHT",
2314                   results, "GET", msg_ctx->unique_id);
2315 #endif
2316   if (results >= 1)
2317     {
2318 #if DEBUG_DHT_ROUTING
2319       if ((debug_routes) && (dhtlog_handle != NULL))
2320         {
2321           dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_GET,
2322                                 msg_ctx->hop_count, GNUNET_YES, &my_identity,
2323                                 &msg_ctx->key);
2324         }
2325
2326       if ((debug_routes_extended) && (dhtlog_handle != NULL))
2327         {
2328           dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_ROUTE,
2329                                        msg_ctx->hop_count, GNUNET_YES,
2330                                        &my_identity, &msg_ctx->key, msg_ctx->peer,
2331                                        NULL);
2332         }
2333 #endif
2334     }
2335   else
2336     {
2337       /* check query valid */
2338       if (GNUNET_BLOCK_EVALUATION_REQUEST_INVALID
2339           == GNUNET_BLOCK_evaluate (block_context,
2340                                     type,
2341                                     &msg_ctx->key,
2342                                     &msg_ctx->reply_bf,
2343                                     msg_ctx->reply_bf_mutator,
2344                                     msg_ctx->xquery,
2345                                     msg_ctx->xquery_size,
2346                                     NULL, 0))
2347         {
2348           GNUNET_break_op (0);
2349           msg_ctx->do_forward = GNUNET_NO;
2350         }
2351     }
2352
2353   if (msg_ctx->hop_count == 0) /* Locally initiated request */
2354     {
2355 #if DEBUG_DHT_ROUTING
2356     if ((debug_routes) && (dhtlog_handle != NULL))
2357       {
2358         dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_GET,
2359                                       msg_ctx->hop_count, GNUNET_NO, &my_identity,
2360                                       &msg_ctx->key);
2361       }
2362 #endif
2363     }
2364   if (msg_ctx->do_forward == GNUNET_YES)
2365     route_message (msg, msg_ctx);
2366   GNUNET_CONTAINER_bloomfilter_free (msg_ctx->reply_bf);
2367   return results;
2368 }
2369
2370 static void
2371 remove_recent_find_peer(void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
2372 {
2373   GNUNET_HashCode *key = cls;
2374   
2375   GNUNET_assert (GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove(recent_find_peer_requests, key, NULL));
2376   GNUNET_free (key);
2377 }
2378
2379 /**
2380  * Server handler for initiating local dht find peer requests
2381  *
2382  * @param find_msg the actual find peer message
2383  * @param msg_ctx struct containing pertinent information about the request
2384  *
2385  */
2386 static void
2387 handle_dht_find_peer (const struct GNUNET_MessageHeader *find_msg,
2388                       struct DHT_MessageContext *msg_ctx)
2389 {
2390   struct GNUNET_MessageHeader *find_peer_result;
2391   struct GNUNET_DHT_FindPeerMessage *find_peer_message;
2392   struct DHT_MessageContext *new_msg_ctx;
2393   struct GNUNET_CONTAINER_BloomFilter *incoming_bloom;
2394   size_t hello_size;
2395   size_t tsize;
2396   GNUNET_HashCode *recent_hash;
2397   struct GNUNET_MessageHeader *other_hello;
2398   size_t other_hello_size;
2399   struct GNUNET_PeerIdentity peer_id;
2400
2401   find_peer_message = (struct GNUNET_DHT_FindPeerMessage *)find_msg;
2402   GNUNET_break_op(ntohs(find_msg->size) >= (sizeof(struct GNUNET_DHT_FindPeerMessage)));
2403   if (ntohs(find_msg->size) < sizeof(struct GNUNET_DHT_FindPeerMessage))
2404     return;
2405   other_hello = NULL;
2406   other_hello_size = 0;
2407   if (ntohs(find_msg->size) > sizeof(struct GNUNET_DHT_FindPeerMessage))
2408     {
2409       other_hello_size = ntohs(find_msg->size) - sizeof(struct GNUNET_DHT_FindPeerMessage);
2410       other_hello = GNUNET_malloc(other_hello_size);
2411       memcpy(other_hello, &find_peer_message[1], other_hello_size);
2412       if ((GNUNET_HELLO_size((struct GNUNET_HELLO_Message *)other_hello) == 0) || (GNUNET_OK != GNUNET_HELLO_get_id((struct GNUNET_HELLO_Message *)other_hello, &peer_id)))
2413         {
2414           GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "Received invalid HELLO message in find peer request!\n");
2415           GNUNET_free(other_hello);
2416           return;
2417         }
2418 #if FIND_PEER_WITH_HELLO
2419       if (GNUNET_YES == consider_peer(&peer_id))
2420         {
2421           increment_stats(STAT_HELLOS_PROVIDED);
2422           GNUNET_TRANSPORT_offer_hello(transport_handle, other_hello);
2423           GNUNET_CORE_peer_request_connect(cfg, GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_SECONDS, 5), &peer_id, NULL, NULL);
2424           route_message (find_msg, msg_ctx);
2425           GNUNET_free (other_hello);
2426           return;
2427         }
2428       else /* We don't want this peer! */
2429         {
2430           route_message (find_msg, msg_ctx);
2431           GNUNET_free (other_hello);
2432           return;
2433         }
2434 #endif
2435     }
2436
2437 #if DEBUG_DHT
2438   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2439               "`%s:%s': Received `%s' request from client, key %s (msg size %d, we expected %d)\n",
2440               my_short_id, "DHT", "FIND PEER", GNUNET_h2s (&msg_ctx->key),
2441               ntohs (find_msg->size),
2442               sizeof (struct GNUNET_MessageHeader));
2443 #endif
2444   if (my_hello == NULL)
2445   {
2446 #if DEBUG_DHT
2447     GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2448                 "`%s': Our HELLO is null, can't return.\n",
2449                 "DHT");
2450 #endif
2451     GNUNET_free_non_null (other_hello);
2452     route_message (find_msg, msg_ctx);
2453     return;
2454   }
2455
2456   incoming_bloom = GNUNET_CONTAINER_bloomfilter_init(find_peer_message->bloomfilter, DHT_BLOOM_SIZE, DHT_BLOOM_K);
2457   if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test(incoming_bloom, &my_identity.hashPubKey))
2458     {
2459       increment_stats(STAT_BLOOM_FIND_PEER);
2460       GNUNET_CONTAINER_bloomfilter_free(incoming_bloom);
2461       GNUNET_free_non_null(other_hello);
2462       route_message (find_msg, msg_ctx);
2463       return; /* We match the bloomfilter, do not send a response to this peer (they likely already know us!)*/
2464     }
2465   GNUNET_CONTAINER_bloomfilter_free(incoming_bloom);
2466
2467 #if RESTRICT_FIND_PEER
2468
2469   /**
2470    * Ignore any find peer requests from a peer we have seen very recently.
2471    */
2472   if (GNUNET_YES == GNUNET_CONTAINER_multihashmap_contains(recent_find_peer_requests, &msg_ctx->key)) /* We have recently responded to a find peer request for this peer! */
2473   {
2474     increment_stats("# dht find peer requests ignored (recently seen!)");
2475     GNUNET_free_non_null(other_hello);
2476     return;
2477   }
2478
2479   /**
2480    * Use this check to only allow the peer to respond to find peer requests if
2481    * it would be beneficial to have the requesting peer in this peers routing
2482    * table.  Can be used to thwart peers flooding the network with find peer
2483    * requests that we don't care about.  However, if a new peer is joining
2484    * the network and has no other peers this is a problem (assume all buckets
2485    * full, no one will respond!).
2486    */
2487   memcpy(&peer_id.hashPubKey, &msg_ctx->key, sizeof(GNUNET_HashCode));
2488   if (GNUNET_NO == consider_peer(&peer_id))
2489     {
2490       increment_stats("# dht find peer requests ignored (do not need!)");
2491       GNUNET_free_non_null(other_hello);
2492       route_message (find_msg, msg_ctx);
2493       return;
2494     }
2495 #endif
2496
2497   recent_hash = GNUNET_malloc(sizeof(GNUNET_HashCode));
2498   memcpy(recent_hash, &msg_ctx->key, sizeof(GNUNET_HashCode));
2499   if (GNUNET_SYSERR != GNUNET_CONTAINER_multihashmap_put (recent_find_peer_requests,
2500                                      &msg_ctx->key, NULL,
2501                                      GNUNET_CONTAINER_MULTIHASHMAPOPTION_UNIQUE_ONLY))
2502     {
2503       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Adding recent remove task for key `%s`!\n", GNUNET_h2s(&msg_ctx->key));
2504       /* Only add a task if there wasn't one for this key already! */
2505       GNUNET_SCHEDULER_add_delayed (GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_SECONDS, 30),
2506                                     &remove_recent_find_peer, recent_hash);
2507     }
2508   else
2509     {
2510       GNUNET_free(recent_hash);
2511       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Received duplicate find peer request too soon!\n");
2512     }
2513
2514   /* Simplistic find_peer functionality, always return our hello */
2515   hello_size = ntohs(my_hello->size);
2516   tsize = hello_size + sizeof (struct GNUNET_MessageHeader);
2517
2518   if (tsize >= GNUNET_SERVER_MAX_MESSAGE_SIZE)
2519     {
2520       GNUNET_break_op (0);
2521       GNUNET_free_non_null(other_hello);
2522       return;
2523     }
2524
2525   find_peer_result = GNUNET_malloc (tsize);
2526   find_peer_result->type = htons (GNUNET_MESSAGE_TYPE_DHT_FIND_PEER_RESULT);
2527   find_peer_result->size = htons (tsize);
2528   memcpy (&find_peer_result[1], my_hello, hello_size);
2529
2530   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2531               "`%s': Sending hello size %d to requesting peer.\n",
2532               "DHT", hello_size);
2533
2534   new_msg_ctx = GNUNET_malloc(sizeof(struct DHT_MessageContext));
2535   memcpy(new_msg_ctx, msg_ctx, sizeof(struct DHT_MessageContext));
2536   new_msg_ctx->peer = &my_identity;
2537   new_msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
2538   new_msg_ctx->hop_count = 0;
2539   new_msg_ctx->importance = DHT_DEFAULT_P2P_IMPORTANCE + 2; /* Make find peer requests a higher priority */
2540   new_msg_ctx->timeout = DHT_DEFAULT_P2P_TIMEOUT;
2541   increment_stats(STAT_FIND_PEER_ANSWER);
2542   route_result_message(find_peer_result, new_msg_ctx);
2543   GNUNET_free(new_msg_ctx);
2544 #if DEBUG_DHT_ROUTING
2545   if ((debug_routes) && (dhtlog_handle != NULL))
2546     {
2547       dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_FIND_PEER,
2548                                    msg_ctx->hop_count, GNUNET_YES, &my_identity,
2549                                    &msg_ctx->key);
2550     }
2551 #endif
2552   GNUNET_free_non_null(other_hello);
2553   GNUNET_free(find_peer_result);
2554   route_message (find_msg, msg_ctx);
2555 }
2556
2557 /**
2558  * Task used to republish data.
2559  * Forward declaration; function call loop.
2560  *
2561  * @param cls closure (a struct RepublishContext)
2562  * @param tc runtime context for this task
2563  */
2564 static void
2565 republish_content(void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc);
2566
2567 /**
2568  * Server handler for initiating local dht put requests
2569  *
2570  * @param msg the actual put message
2571  * @param msg_ctx struct containing pertinent information about the request
2572  */
2573 static void
2574 handle_dht_put (const struct GNUNET_MessageHeader *msg,
2575                 struct DHT_MessageContext *msg_ctx)
2576 {
2577   const struct GNUNET_DHT_PutMessage *put_msg;
2578   enum GNUNET_BLOCK_Type put_type;
2579   size_t data_size;
2580   int ret;
2581   struct RepublishContext *put_context;
2582   GNUNET_HashCode key;
2583
2584   GNUNET_assert (ntohs (msg->size) >=
2585                  sizeof (struct GNUNET_DHT_PutMessage));
2586
2587
2588   put_msg = (const struct GNUNET_DHT_PutMessage *)msg;
2589   put_type = (enum GNUNET_BLOCK_Type) ntohl (put_msg->type);
2590 #if HAVE_MALICIOUS
2591   if (put_type == GNUNET_BLOCK_DHT_MALICIOUS_MESSAGE_TYPE)
2592     return;
2593 #endif
2594   data_size = ntohs (put_msg->header.size) - sizeof (struct GNUNET_DHT_PutMessage);
2595   ret = GNUNET_BLOCK_get_key (block_context,
2596                               put_type,
2597                               &put_msg[1],
2598                               data_size,
2599                               &key);
2600   if (GNUNET_NO == ret)
2601     {
2602       /* invalid reply */
2603       GNUNET_break_op (0);
2604       return;
2605     }
2606   if ( (GNUNET_YES == ret) &&
2607        (0 != memcmp (&key,
2608                      &msg_ctx->key,
2609                      sizeof (GNUNET_HashCode))) )
2610     {
2611       /* invalid wrapper: key mismatch! */
2612       GNUNET_break_op (0);
2613       return;
2614     }
2615   /* ret == GNUNET_SYSERR means that there is no known relationship between
2616      data and the key, so we cannot check it */
2617 #if DEBUG_DHT
2618   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2619               "`%s:%s': Received `%s' request (inserting data!), message type %d, key %s, uid %llu\n",
2620               my_short_id, "DHT", "PUT", put_type, GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id);
2621 #endif
2622 #if DEBUG_DHT_ROUTING
2623   if (msg_ctx->hop_count == 0) /* Locally initiated request */
2624     {
2625       if ((debug_routes) && (dhtlog_handle != NULL))
2626         {
2627           dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_PUT,
2628                                        msg_ctx->hop_count, GNUNET_NO, &my_identity,
2629                                        &msg_ctx->key);
2630         }
2631     }
2632 #endif
2633
2634   if (msg_ctx->closest != GNUNET_YES)
2635     {
2636       route_message (msg, msg_ctx);
2637       return;
2638     }
2639
2640 #if DEBUG_DHT
2641   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2642               "`%s:%s': Received `%s' request (inserting data!), message type %d, key %s, uid %llu\n",
2643               my_short_id, "DHT", "PUT", put_type, GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id);
2644 #endif
2645
2646 #if DEBUG_DHT_ROUTING
2647   if ((debug_routes_extended) && (dhtlog_handle != NULL))
2648     {
2649       dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_ROUTE,
2650                                    msg_ctx->hop_count, GNUNET_YES,
2651                                    &my_identity, &msg_ctx->key, msg_ctx->peer,
2652                                    NULL);
2653     }
2654
2655   if ((debug_routes) && (dhtlog_handle != NULL))
2656     {
2657       dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_PUT,
2658                                    msg_ctx->hop_count, GNUNET_YES, &my_identity,
2659                                    &msg_ctx->key);
2660     }
2661 #endif
2662
2663   increment_stats(STAT_PUTS_INSERTED);
2664   if (datacache != NULL)
2665     {
2666       ret = GNUNET_DATACACHE_put (datacache, &msg_ctx->key, data_size,
2667                                   (char *) &put_msg[1], put_type,
2668                                   GNUNET_TIME_absolute_ntoh(put_msg->expiration));
2669
2670       if ((ret == GNUNET_YES) && (do_republish == GNUNET_YES))
2671         {
2672           put_context = GNUNET_malloc(sizeof(struct RepublishContext));
2673           memcpy(&put_context->key, &msg_ctx->key, sizeof(GNUNET_HashCode));
2674           put_context->type = put_type;
2675           GNUNET_SCHEDULER_add_delayed (dht_republish_frequency, &republish_content, put_context);
2676         }
2677     }
2678   else
2679     GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2680                 "`%s:%s': %s request received, but have no datacache!\n",
2681                 my_short_id, "DHT", "PUT");
2682
2683   if (stop_on_closest == GNUNET_NO)
2684     route_message (msg, msg_ctx);
2685 }
2686
2687 /**
2688  * Estimate the diameter of the network based
2689  * on how many buckets are currently in use.
2690  * Concept here is that the diameter of the network
2691  * is roughly the distance a message must travel in
2692  * order to reach its intended destination.  Since
2693  * at each hop we expect to get one bit closer, and
2694  * we have one bit per bucket, the number of buckets
2695  * in use should be the largest number of hops for
2696  * a successful message. (of course, this assumes we
2697  * know all peers in the network!)
2698  *
2699  * @return ballpark diameter figure
2700  */
2701 static unsigned int estimate_diameter()
2702 {
2703   return MAX_BUCKETS - lowest_bucket;
2704 }
2705
2706 /**
2707  * To how many peers should we (on average)
2708  * forward the request to obtain the desired
2709  * target_replication count (on average).
2710  *
2711  * Always 0, 1 or 2 (don't send, send once, split)
2712  */
2713 static unsigned int
2714 get_forward_count (unsigned int hop_count, size_t target_replication)
2715 {
2716 #if DOUBLE
2717   double target_count;
2718   double random_probability;
2719 #else
2720   uint32_t random_value;
2721 #endif
2722   unsigned int target_value;
2723   unsigned int diameter;
2724
2725   /**
2726    * If we are behaving in strict kademlia mode, send multiple initial requests,
2727    * but then only send to 1 or 0 peers based strictly on the number of hops.
2728    */
2729   if (strict_kademlia == GNUNET_YES)
2730     {
2731       if (hop_count == 0)
2732         return DHT_KADEMLIA_REPLICATION;
2733       else if (hop_count < max_hops)
2734         return 1;
2735       else
2736         return 0;
2737     }
2738
2739   /* FIXME: the smaller we think the network is the more lenient we should be for
2740    * routing right?  The estimation below only works if we think we have reasonably
2741    * full routing tables, which for our RR topologies may not be the case!
2742    */
2743   diameter = estimate_diameter ();
2744   if ((hop_count > (diameter + 1) * 2) && (MINIMUM_PEER_THRESHOLD < estimate_diameter() * bucket_size) && (use_max_hops == GNUNET_NO))
2745     {
2746 #if DEBUG_DHT
2747       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2748                   "`%s:%s': Hop count too high (est %d, lowest %d), NOT Forwarding request\n", my_short_id,
2749                   "DHT", estimate_diameter(), lowest_bucket);
2750 #endif
2751       return 0;
2752     }
2753   else if (hop_count > max_hops)
2754     {
2755 #if DEBUG_DHT
2756       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
2757                   "`%s:%s': Hop count too high (greater than max)\n", my_short_id,
2758                   "DHT");
2759 #endif
2760       return 0;
2761     }
2762
2763 #if DOUBLE
2764   GNUNET_log (GNUNET_ERROR_TYPE_WARNING, "Replication %d, hop_count %u, diameter %u\n", target_replication, hop_count, diameter);
2765   GNUNET_log (GNUNET_ERROR_TYPE_WARNING, "Numerator %f, denominator %f\n", (double)target_replication, ((double)target_replication * (hop_count + 1) + diameter));
2766   target_count = /* target_count is ALWAYS < 1 unless replication is < 1 */
2767     (double)target_replication / ((double)target_replication * (hop_count + 1) + diameter);
2768   GNUNET_log (GNUNET_ERROR_TYPE_WARNING, "Target count is %f\n", target_count);
2769   random_probability = ((double)GNUNET_CRYPTO_random_u32 (GNUNET_CRYPTO_QUALITY_WEAK,
2770       RAND_MAX)) / RAND_MAX;
2771   GNUNET_log (GNUNET_ERROR_TYPE_WARNING, "Random is %f\n", random_probability);
2772
2773   target_value = 0;
2774   //while (target_value < target_count)
2775   if (target_value < target_count)
2776     target_value++; /* target_value is ALWAYS 1 after this "loop", right?  Because target_count is always > 0, right?  Or does it become 0.00000... at some point because the hop count is so high? */
2777
2778
2779   //if ((target_count + 1 - (double)target_value) > random_probability)
2780   if ((target_count) > random_probability)
2781     target_value++;
2782 #endif
2783
2784   random_value = GNUNET_CRYPTO_random_u32(GNUNET_CRYPTO_QUALITY_STRONG, target_replication * (hop_count + 1) + diameter) + 1;
2785   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "replication %u, at hop %d, will split with probability %f\n", target_replication, hop_count, target_replication / (double)((target_replication * (hop_count + 1) + diameter) + 1));
2786   target_value = 1;
2787   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "random %u, target %u, max %u\n", random_value, target_replication, target_replication * (hop_count + 1) + diameter);
2788   if (random_value < target_replication)
2789     {
2790       increment_stats("# DHT Messages split");
2791       target_value++;
2792     }
2793
2794   return target_value;
2795 }
2796
2797 /*
2798  * Check whether my identity is closer than any known peers.
2799  * If a non-null bloomfilter is given, check if this is the closest
2800  * peer that hasn't already been routed to.
2801  *
2802  * @param target hash code to check closeness to
2803  * @param bloom bloomfilter, exclude these entries from the decision
2804  *
2805  * Return GNUNET_YES if node location is closest, GNUNET_NO
2806  * otherwise.
2807  */
2808 int
2809 am_closest_peer (const GNUNET_HashCode * target, struct GNUNET_CONTAINER_BloomFilter *bloom)
2810 {
2811   int bits;
2812   int other_bits;
2813   int bucket_num;
2814   int count;
2815   struct PeerInfo *pos;
2816   unsigned int my_distance;
2817
2818   if (0 == memcmp(&my_identity.hashPubKey, target, sizeof(GNUNET_HashCode)))
2819     return GNUNET_YES;
2820
2821   bucket_num = find_current_bucket(target);
2822
2823   bits = GNUNET_CRYPTO_hash_matching_bits(&my_identity.hashPubKey, target);
2824   my_distance = distance(&my_identity.hashPubKey, target);
2825   pos = k_buckets[bucket_num].head;
2826   count = 0;
2827   while ((pos != NULL) && (count < bucket_size))
2828     {
2829       if ((bloom != NULL) && (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test(bloom, &pos->id.hashPubKey)))
2830         {
2831           pos = pos->next;
2832           continue; /* Skip already checked entries */
2833         }
2834
2835       other_bits = GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, target);
2836       if (other_bits > bits)
2837         return GNUNET_NO;
2838       else if (other_bits == bits) /* We match the same number of bits, do distance comparison */
2839         {
2840           if (strict_kademlia != GNUNET_YES) /* Return that we at as close as any other peer */
2841             return GNUNET_YES;
2842           else if (distance(&pos->id.hashPubKey, target) < my_distance) /* Check all known peers, only return if we are the true closest */
2843             return GNUNET_NO;
2844         }
2845       pos = pos->next;
2846     }
2847
2848   /* No peers closer, we are the closest! */
2849   return GNUNET_YES;
2850 }
2851
2852
2853 /**
2854  * Return this peers adjusted value based on the convergence
2855  * function chosen.  This is the key function for randomized
2856  * routing decisions.
2857  *
2858  * @param target the key of the request
2859  * @param peer the peer we would like the value of
2860  * @param hops number of hops this message has already traveled
2861  *
2862  * @return bit distance from target to peer raised to an exponent
2863  *         adjusted based on the current routing convergence algorithm
2864  *
2865  */
2866 static unsigned long long
2867 converge_distance (const GNUNET_HashCode *target,
2868                    struct PeerInfo *peer,
2869                    unsigned int hops)
2870 {
2871   unsigned long long ret;
2872   unsigned int other_matching_bits;
2873   double base_converge_modifier = .1; /* Value that "looks" good (when plotted), have to start somewhere */
2874   double temp_modifier;
2875   double calc_value;
2876   double exponent;
2877   int curr_max_hops;
2878
2879   if (use_max_hops)
2880     curr_max_hops = max_hops;
2881   else
2882     curr_max_hops = (estimate_diameter() + 1) * 2;
2883
2884   if (converge_modifier > 0)
2885     temp_modifier = converge_modifier * base_converge_modifier;
2886   else
2887     {
2888       temp_modifier = base_converge_modifier;
2889       base_converge_modifier = 0.0;
2890     }
2891
2892   GNUNET_assert(temp_modifier > 0);
2893
2894   other_matching_bits = GNUNET_CRYPTO_hash_matching_bits(target, &peer->id.hashPubKey);
2895
2896   switch (converge_option)
2897     {
2898       case DHT_CONVERGE_RANDOM:
2899         return 1; /* Always return 1, choose equally among all peers */
2900       case DHT_CONVERGE_LINEAR:
2901         calc_value = hops * curr_max_hops * temp_modifier;
2902         break;
2903       case DHT_CONVERGE_SQUARE:
2904         /**
2905          * Simple square based curve.
2906          */
2907         calc_value = (sqrt(hops) / sqrt(curr_max_hops)) * (curr_max_hops / (curr_max_hops * temp_modifier));
2908         break;
2909       case DHT_CONVERGE_EXPONENTIAL:
2910         /**
2911          * Simple exponential curve.
2912          */
2913         if (base_converge_modifier > 0)
2914           calc_value = (temp_modifier * hops * hops) / curr_max_hops;
2915         else
2916           calc_value = (hops * hops) / curr_max_hops;
2917         break;
2918       case DHT_CONVERGE_BINARY:
2919         /**
2920          * If below the cutoff, route randomly (return 1),
2921          * If above the cutoff, return the maximum possible
2922          * value first (always route to closest, because
2923          * they are sorted.)
2924          */
2925
2926         if (hops > converge_modifier) /* Past cutoff */
2927           {
2928             return ULLONG_MAX;
2929           }
2930         /* Fall through */
2931       default:
2932         return 1;
2933     }
2934
2935   /* Take the log (base e) of the number of bits matching the other peer */
2936   exponent = log(other_matching_bits);
2937
2938   /* Check if we would overflow; our largest possible value is 2^64 approx. e^44.361419555836498 */
2939   if (exponent * calc_value >= 44.361419555836498)
2940     return ULLONG_MAX;
2941
2942   /* Clear errno and all math exceptions */
2943   errno = 0;
2944   feclearexcept(FE_ALL_EXCEPT);
2945   ret = (unsigned long long)pow(other_matching_bits, calc_value);
2946   if ((errno != 0) || fetestexcept(FE_INVALID | FE_DIVBYZERO | FE_OVERFLOW |
2947       FE_UNDERFLOW))
2948     {
2949       if (0 != fetestexcept(FE_OVERFLOW))
2950         GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "FE_OVERFLOW\n");
2951       if (0 != fetestexcept(FE_INVALID))
2952         GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "FE_INVALID\n");
2953       if (0 != fetestexcept(FE_UNDERFLOW))
2954         GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "FE_UNDERFLOW\n");
2955       return 0;
2956     }
2957   else
2958     return ret;
2959 }
2960
2961 /**
2962  * Comparison function for two struct PeerInfo's
2963  * which have already had their matching bits to
2964  * some target calculated.
2965  *
2966  * @param p1 a pointer pointer to a struct PeerInfo
2967  * @param p2 a pointer pointer to a struct PeerInfo
2968  *
2969  * @return 0 if equidistant to target,
2970  *        -1 if p1 is closer,
2971  *         1 if p2 is closer
2972  */
2973 static int
2974 compare_peers (const void *p1, const void *p2)
2975 {
2976   struct PeerInfo **first = (struct PeerInfo **)p1;
2977   struct PeerInfo **second = (struct PeerInfo **)p2;
2978
2979   if ((*first)->matching_bits > (*second)->matching_bits)
2980     return -1;
2981   if ((*first)->matching_bits < (*second)->matching_bits)
2982     return 1;
2983   else
2984     return 0;
2985 }
2986
2987
2988 /**
2989  * Select a peer from the routing table that would be a good routing
2990  * destination for sending a message for "target".  The resulting peer
2991  * must not be in the set of blocked peers.<p>
2992  *
2993  * Note that we should not ALWAYS select the closest peer to the
2994  * target, peers further away from the target should be chosen with
2995  * exponentially declining probability.
2996  *
2997  * @param target the key we are selecting a peer to route to
2998  * @param bloom a bloomfilter containing entries this request has seen already
2999  *
3000  * @return Peer to route to, or NULL on error
3001  */
3002 static struct PeerInfo *
3003 select_peer (const GNUNET_HashCode * target,
3004              struct GNUNET_CONTAINER_BloomFilter *bloom, unsigned int hops)
3005 {
3006   unsigned int bc;
3007   unsigned int i;
3008   unsigned int count;
3009   unsigned int offset;
3010   unsigned int my_matching_bits;
3011   int closest_bucket;
3012   struct PeerInfo *pos;
3013   struct PeerInfo *sorted_closest[bucket_size];
3014   unsigned long long temp_converge_distance;
3015   unsigned long long total_distance;
3016   unsigned long long selected;
3017 #if DEBUG_DHT > 1
3018   unsigned long long stats_total_distance;
3019   double sum;
3020 #endif
3021   /* For kademlia */
3022   unsigned int distance;
3023   unsigned int largest_distance;
3024   struct PeerInfo *chosen;
3025
3026   my_matching_bits = GNUNET_CRYPTO_hash_matching_bits(target, &my_identity.hashPubKey);
3027
3028   total_distance = 0;
3029   if (strict_kademlia == GNUNET_YES)
3030     {
3031       largest_distance = 0;
3032       chosen = NULL;
3033       for (bc = lowest_bucket; bc < MAX_BUCKETS; bc++)
3034         {
3035           pos = k_buckets[bc].head;
3036           count = 0;
3037           while ((pos != NULL) && (count < bucket_size))
3038             {
3039               /* If we are doing strict Kademlia routing, then checking the bloomfilter is basically cheating! */
3040               if (GNUNET_NO == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3041                 {
3042                   distance = inverse_distance (target, &pos->id.hashPubKey);
3043                   if (distance > largest_distance)
3044                     {
3045                       chosen = pos;
3046                       largest_distance = distance;
3047                     }
3048                 }
3049               count++;
3050               pos = pos->next;
3051             }
3052         }
3053
3054       if ((largest_distance > 0) && (chosen != NULL))
3055         {
3056           GNUNET_CONTAINER_bloomfilter_add(bloom, &chosen->id.hashPubKey);
3057           return chosen;
3058         }
3059       else
3060         {
3061           return NULL;
3062         }
3063     }
3064
3065   /* GNUnet-style */
3066   total_distance = 0;
3067   /* Three steps: order peers in closest bucket (most matching bits).
3068    * Then go over all LOWER buckets (matching same bits we do)
3069    * Then go over all HIGHER buckets (matching less then we do)
3070    */
3071
3072   closest_bucket = find_current_bucket(target);
3073   GNUNET_assert(closest_bucket >= lowest_bucket);
3074   pos = k_buckets[closest_bucket].head;
3075   count = 0;
3076   offset = 0; /* Need offset as well as count in case peers are bloomfiltered */
3077   memset(sorted_closest, 0, sizeof(sorted_closest));
3078   /* Put any peers in the closest bucket in the sorting array */
3079   while ((pos != NULL) && (count < bucket_size))
3080     {
3081       if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3082         {
3083           count++;
3084           pos = pos->next;
3085           continue; /* Ignore bloomfiltered peers */
3086         }
3087       pos->matching_bits = GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, target);
3088       sorted_closest[offset] = pos;
3089       pos = pos->next;
3090       offset++;
3091       count++;
3092     }
3093
3094   /* Sort the peers in descending order */
3095   qsort(&sorted_closest[0], offset, sizeof(struct PeerInfo *), &compare_peers);
3096
3097   /* Put the sorted closest peers into the possible bins first, in case of overflow. */
3098   for (i = 0; i < offset; i++)
3099     {
3100       temp_converge_distance = converge_distance(target, sorted_closest[i], hops);
3101       if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &sorted_closest[i]->id.hashPubKey))
3102         break; /* Ignore bloomfiltered peers */
3103       if ((temp_converge_distance <= ULLONG_MAX) && (total_distance + temp_converge_distance > total_distance)) /* Handle largest case and overflow */
3104         total_distance += temp_converge_distance;
3105       else
3106         break; /* overflow case */
3107     }
3108
3109   /* Now handle peers in lower buckets (matches same # of bits as target) */
3110   for (bc = lowest_bucket; bc < closest_bucket; bc++)
3111     {
3112       pos = k_buckets[bc].head;
3113       count = 0;
3114       while ((pos != NULL) && (count < bucket_size))
3115         {
3116           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3117             {
3118               count++;
3119               pos = pos->next;
3120               continue; /* Ignore bloomfiltered peers */
3121             }
3122           temp_converge_distance = converge_distance(target, pos, hops);
3123           if ((temp_converge_distance <= ULLONG_MAX) && (total_distance + temp_converge_distance > total_distance)) /* Handle largest case and overflow */
3124             total_distance += temp_converge_distance;
3125           else
3126             break; /* overflow case */
3127           pos = pos->next;
3128           count++;
3129         }
3130     }
3131
3132   /* Now handle all the further away peers */
3133   for (bc = closest_bucket + 1; bc < MAX_BUCKETS; bc++)
3134     {
3135       pos = k_buckets[bc].head;
3136       count = 0;
3137       while ((pos != NULL) && (count < bucket_size))
3138         {
3139           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3140             {
3141               count++;
3142               pos = pos->next;
3143               continue; /* Ignore bloomfiltered peers */
3144             }
3145           temp_converge_distance = converge_distance(target, pos, hops);
3146           if ((temp_converge_distance <= ULLONG_MAX) && (total_distance + temp_converge_distance > total_distance)) /* Handle largest case and overflow */
3147             total_distance += temp_converge_distance;
3148           else
3149             break; /* overflow case */
3150           pos = pos->next;
3151           count++;
3152         }
3153     }
3154
3155   if (total_distance == 0) /* No peers to select from! */
3156     {
3157       increment_stats("# select_peer, total_distance == 0");
3158       return NULL;
3159     }
3160
3161 #if DEBUG_DHT_ROUTING > 1
3162   sum = 0.0;
3163   /* PRINT STATS */
3164   /* Put the sorted closest peers into the possible bins first, in case of overflow. */
3165   stats_total_distance = 0;
3166   for (i = 0; i < offset; i++)
3167     {
3168       if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &sorted_closest[i]->id.hashPubKey))
3169         break; /* Ignore bloomfiltered peers */
3170       temp_converge_distance = converge_distance(target, sorted_closest[i], hops);
3171       if ((temp_converge_distance <= ULLONG_MAX) && (stats_total_distance + temp_converge_distance > stats_total_distance)) /* Handle largest case and overflow */
3172         stats_total_distance += temp_converge_distance;
3173       else
3174         break; /* overflow case */
3175       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Choose %d matching bits (%d bits match me) (%.2f percent) converge ret %llu\n", GNUNET_CRYPTO_hash_matching_bits(&sorted_closest[i]->id.hashPubKey, target), GNUNET_CRYPTO_hash_matching_bits(&sorted_closest[i]->id.hashPubKey, &my_identity.hashPubKey), (temp_converge_distance / (double)total_distance) * 100, temp_converge_distance);
3176     }
3177
3178   /* Now handle peers in lower buckets (matches same # of bits as target) */
3179   for (bc = lowest_bucket; bc < closest_bucket; bc++)
3180     {
3181       pos = k_buckets[bc].head;
3182       count = 0;
3183       while ((pos != NULL) && (count < bucket_size))
3184         {
3185           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3186             {
3187               count++;
3188               pos = pos->next;
3189               continue; /* Ignore bloomfiltered peers */
3190             }
3191           temp_converge_distance = converge_distance(target, pos, hops);
3192           if ((temp_converge_distance <= ULLONG_MAX) && (stats_total_distance + temp_converge_distance > stats_total_distance)) /* Handle largest case and overflow */
3193             stats_total_distance += temp_converge_distance;
3194           else
3195             break; /* overflow case */
3196           GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Choose %d matching bits (%d bits match me) (%.2f percent) converge ret %llu\n", GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, target), GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, &my_identity.hashPubKey), (temp_converge_distance / (double)total_distance) * 100, temp_converge_distance);
3197           pos = pos->next;
3198           count++;
3199         }
3200     }
3201
3202   /* Now handle all the further away peers */
3203   for (bc = closest_bucket + 1; bc < MAX_BUCKETS; bc++)
3204     {
3205       pos = k_buckets[bc].head;
3206       count = 0;
3207       while ((pos != NULL) && (count < bucket_size))
3208         {
3209           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3210             {
3211               count++;
3212               pos = pos->next;
3213               continue; /* Ignore bloomfiltered peers */
3214             }
3215           temp_converge_distance = converge_distance(target, pos, hops);
3216           if ((temp_converge_distance <= ULLONG_MAX) && (stats_total_distance + temp_converge_distance > stats_total_distance)) /* Handle largest case and overflow */
3217             stats_total_distance += temp_converge_distance;
3218           else
3219             break; /* overflow case */
3220           GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Choose %d matching bits (%d bits match me) (%.2f percent) converge ret %llu\n", GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, target), GNUNET_CRYPTO_hash_matching_bits(&pos->id.hashPubKey, &my_identity.hashPubKey),  (temp_converge_distance / (double)total_distance) * 100, temp_converge_distance);
3221           pos = pos->next;
3222           count++;
3223         }
3224     }
3225   /* END PRINT STATS */
3226 #endif
3227
3228   /* Now actually choose a peer */
3229   selected = GNUNET_CRYPTO_random_u64 (GNUNET_CRYPTO_QUALITY_WEAK, total_distance);
3230
3231   /* Go over closest sorted peers. */
3232   for (i = 0; i < offset; i++)
3233     {
3234       if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &sorted_closest[i]->id.hashPubKey))
3235         break; /* Ignore bloomfiltered peers */
3236       temp_converge_distance = converge_distance(target, sorted_closest[i], hops);
3237       if (temp_converge_distance >= selected)
3238         return sorted_closest[i];
3239       else
3240         selected -= temp_converge_distance;
3241     }
3242
3243   /* Now handle peers in lower buckets (matches same # of bits as target) */
3244   for (bc = lowest_bucket; bc < closest_bucket; bc++)
3245     {
3246       pos = k_buckets[bc].head;
3247       count = 0;
3248       while ((pos != NULL) && (count < bucket_size))
3249         {
3250           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3251             {
3252               count++;
3253               pos = pos->next;
3254               continue; /* Ignore bloomfiltered peers */
3255             }
3256           temp_converge_distance = converge_distance(target, pos, hops);
3257           if (temp_converge_distance >= selected)
3258             return pos;
3259           else
3260             selected -= temp_converge_distance;
3261           pos = pos->next;
3262           count++;
3263         }
3264     }
3265
3266   /* Now handle all the further away peers */
3267   for (bc = closest_bucket + 1; bc < MAX_BUCKETS; bc++)
3268     {
3269       pos = k_buckets[bc].head;
3270       count = 0;
3271       while ((pos != NULL) && (count < bucket_size))
3272         {
3273           if (GNUNET_YES == GNUNET_CONTAINER_bloomfilter_test (bloom, &pos->id.hashPubKey))
3274             {
3275               count++;
3276               pos = pos->next;
3277               continue; /* Ignore bloomfiltered peers */
3278             }
3279           temp_converge_distance = converge_distance(target, pos, hops);
3280           if (temp_converge_distance >= selected)
3281             return pos;
3282           else
3283             selected -= temp_converge_distance;
3284           pos = pos->next;
3285           count++;
3286         }
3287     }
3288
3289   increment_stats("# failed to select peer");
3290   return NULL;
3291 }
3292
3293
3294 /**
3295  * Task used to remove recent entries, either
3296  * after timeout, when full, or on shutdown.
3297  *
3298  * @param cls the entry to remove
3299  * @param tc context, reason, etc.
3300  */
3301 static void
3302 remove_recent (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3303 {
3304   struct RecentRequest *req = cls;
3305   static GNUNET_HashCode hash;
3306
3307   GNUNET_assert(req != NULL);
3308   hash_from_uid(req->uid, &hash);
3309   GNUNET_assert (GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove(recent.hashmap, &hash, req));
3310   GNUNET_CONTAINER_heap_remove_node(recent.minHeap, req->heap_node);
3311   GNUNET_CONTAINER_bloomfilter_free(req->bloom);
3312   GNUNET_free(req);
3313
3314   /*
3315   if ((tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN) && (0 == GNUNET_CONTAINER_multihashmap_size(recent.hashmap)) && (0 == GNUNET_CONTAINER_heap_get_size(recent.minHeap)))
3316   {
3317     GNUNET_CONTAINER_multihashmap_destroy(recent.hashmap);
3318     GNUNET_CONTAINER_heap_destroy(recent.minHeap);
3319   }
3320   */
3321 }
3322
3323
3324 /**
3325  * Task used to remove forwarding entries, either
3326  * after timeout, when full, or on shutdown.
3327  *
3328  * @param cls the entry to remove
3329  * @param tc context, reason, etc.
3330  */
3331 static void
3332 remove_forward_entry (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3333 {
3334   struct DHTRouteSource *source_info = cls;
3335   struct DHTQueryRecord *record;
3336   source_info = GNUNET_CONTAINER_heap_remove_node(forward_list.minHeap, source_info->hnode);
3337   record = source_info->record;
3338   GNUNET_CONTAINER_DLL_remove(record->head, record->tail, source_info);
3339
3340   if (record->head == NULL) /* No more entries in DLL */
3341     {
3342       GNUNET_assert(GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove(forward_list.hashmap, &record->key, record));
3343       GNUNET_free(record);
3344     }
3345   if (source_info->find_peers_responded != NULL)
3346     GNUNET_CONTAINER_bloomfilter_free(source_info->find_peers_responded);
3347   GNUNET_free(source_info);
3348 }
3349
3350 /**
3351  * Remember this routing request so that if a reply is
3352  * received we can either forward it to the correct peer
3353  * or return the result locally.
3354  *
3355  * @param msg_ctx Context of the route request
3356  *
3357  * @return GNUNET_YES if this response was cached, GNUNET_NO if not
3358  */
3359 static int cache_response(struct DHT_MessageContext *msg_ctx)
3360 {
3361   struct DHTQueryRecord *record;
3362   struct DHTRouteSource *source_info;
3363   struct DHTRouteSource *pos;
3364   struct GNUNET_TIME_Absolute now;
3365   unsigned int current_size;
3366
3367   current_size = GNUNET_CONTAINER_multihashmap_size(forward_list.hashmap);
3368   while (current_size >= MAX_OUTSTANDING_FORWARDS)
3369     {
3370       source_info = GNUNET_CONTAINER_heap_remove_root(forward_list.minHeap);
3371       GNUNET_assert(source_info != NULL);
3372       record = source_info->record;
3373       GNUNET_CONTAINER_DLL_remove(record->head, record->tail, source_info);
3374       if (record->head == NULL) /* No more entries in DLL */
3375         {
3376           GNUNET_assert(GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove(forward_list.hashmap, &record->key, record));
3377           GNUNET_free(record);
3378         }
3379       if (source_info->delete_task != GNUNET_SCHEDULER_NO_TASK)
3380         GNUNET_SCHEDULER_cancel(source_info->delete_task);
3381       if (source_info->find_peers_responded != NULL)
3382         GNUNET_CONTAINER_bloomfilter_free(source_info->find_peers_responded);
3383       GNUNET_free(source_info);
3384       current_size = GNUNET_CONTAINER_multihashmap_size(forward_list.hashmap);
3385     }
3386   now = GNUNET_TIME_absolute_get();
3387   record = GNUNET_CONTAINER_multihashmap_get(forward_list.hashmap, &msg_ctx->key);
3388   if (record != NULL) /* Already know this request! */
3389     {
3390       pos = record->head;
3391       while (pos != NULL)
3392         {
3393           if (0 == memcmp(msg_ctx->peer, &pos->source, sizeof(struct GNUNET_PeerIdentity)))
3394             break; /* Already have this peer in reply list! */
3395           pos = pos->next;
3396         }
3397       if ((pos != NULL) && (pos->client == msg_ctx->client)) /* Seen this already */
3398         {
3399           GNUNET_CONTAINER_heap_update_cost(forward_list.minHeap, pos->hnode, now.abs_value);
3400           return GNUNET_NO;
3401         }
3402     }
3403   else
3404     {
3405       record = GNUNET_malloc(sizeof (struct DHTQueryRecord));
3406       GNUNET_assert(GNUNET_OK == GNUNET_CONTAINER_multihashmap_put(forward_list.hashmap, &msg_ctx->key, record, GNUNET_CONTAINER_MULTIHASHMAPOPTION_UNIQUE_ONLY));
3407       memcpy(&record->key, &msg_ctx->key, sizeof(GNUNET_HashCode));
3408     }
3409
3410   source_info = GNUNET_malloc(sizeof(struct DHTRouteSource));
3411   source_info->record = record;
3412   source_info->delete_task = GNUNET_SCHEDULER_add_delayed(DHT_FORWARD_TIMEOUT, &remove_forward_entry, source_info);
3413   source_info->find_peers_responded = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
3414   memcpy(&source_info->source, msg_ctx->peer, sizeof(struct GNUNET_PeerIdentity));
3415   GNUNET_CONTAINER_DLL_insert_after(record->head, record->tail, record->tail, source_info);
3416   if (msg_ctx->client != NULL) /* For local request, set timeout so high it effectively never gets pushed out */
3417     {
3418       source_info->client = msg_ctx->client;
3419       now = GNUNET_TIME_absolute_get_forever();
3420     }
3421   source_info->hnode = GNUNET_CONTAINER_heap_insert(forward_list.minHeap, source_info, now.abs_value);
3422 #if DEBUG_DHT > 1
3423       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
3424                   "`%s:%s': Created new forward source info for %s uid %llu\n", my_short_id,
3425                   "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id);
3426 #endif
3427   return GNUNET_YES;
3428 }
3429
3430
3431 /**
3432  * Main function that handles whether or not to route a message to other
3433  * peers.
3434  *
3435  * @param msg the message to be routed
3436  * @param msg_ctx the context containing all pertinent information about the message
3437  */
3438 static void
3439 route_message(const struct GNUNET_MessageHeader *msg,
3440                struct DHT_MessageContext *msg_ctx)
3441 {
3442   int i;
3443   struct PeerInfo *selected;
3444 #if DEBUG_DHT_ROUTING > 1
3445   struct PeerInfo *nearest;
3446 #endif
3447   unsigned int forward_count;
3448   struct RecentRequest *recent_req;
3449   GNUNET_HashCode unique_hash;
3450   char *stat_forward_count;
3451   char *temp_stat_str;
3452 #if DEBUG_DHT_ROUTING
3453   int ret;
3454 #endif
3455
3456   if (malicious_dropper == GNUNET_YES)
3457     {
3458 #if DEBUG_DHT_ROUTING
3459       if ((debug_routes_extended) && (dhtlog_handle != NULL))
3460         {
3461           dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_ROUTE,
3462                                        msg_ctx->hop_count, GNUNET_SYSERR,
3463                                        &my_identity, &msg_ctx->key, msg_ctx->peer,
3464                                        NULL);
3465         }
3466 #endif
3467       if (msg_ctx->bloom != NULL)
3468         GNUNET_CONTAINER_bloomfilter_free(msg_ctx->bloom);
3469       return;
3470     }
3471
3472   increment_stats(STAT_ROUTES);
3473   forward_count = get_forward_count(msg_ctx->hop_count, msg_ctx->replication);
3474   GNUNET_asprintf(&stat_forward_count, "# forward counts of %d", forward_count);
3475   increment_stats(stat_forward_count);
3476   GNUNET_free(stat_forward_count);
3477   if (msg_ctx->bloom == NULL)
3478     msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
3479
3480   if ((stop_on_closest == GNUNET_YES) && (msg_ctx->closest == GNUNET_YES) && (ntohs(msg->type) == GNUNET_MESSAGE_TYPE_DHT_PUT))
3481     forward_count = 0;
3482
3483   /**
3484    * NOTICE:  In Kademlia, a find peer request goes no further if the peer doesn't return
3485    * any closer peers (which is being checked for below).  Since we are doing recursive
3486    * routing we have no choice but to stop forwarding in this case.  This means that at
3487    * any given step the request may NOT be forwarded to alpha peers (because routes will
3488    * stop and the parallel route will not be aware of it).  Of course, assuming that we
3489    * have fulfilled the Kademlia requirements for routing table fullness this will never
3490    * ever ever be a problem.
3491    *
3492    * However, is this fair?
3493    *
3494    * Since we use these requests to build our routing tables (and we build them in the
3495    * testing driver) we will ignore this restriction for FIND_PEER messages so that
3496    * routing tables still get constructed.
3497    */
3498   if ((GNUNET_YES == strict_kademlia) && (msg_ctx->closest == GNUNET_YES) && (msg_ctx->hop_count > 0) && (ntohs(msg->type) != GNUNET_MESSAGE_TYPE_DHT_FIND_PEER))
3499     forward_count = 0;
3500
3501 #if DEBUG_DHT_ROUTING
3502   if (forward_count == 0)
3503     ret = GNUNET_SYSERR;
3504   else
3505     ret = GNUNET_NO;
3506
3507   if ((debug_routes_extended) && (dhtlog_handle != NULL))
3508     {
3509       dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_ROUTE,
3510                                    msg_ctx->hop_count, ret,
3511                                    &my_identity, &msg_ctx->key, msg_ctx->peer,
3512                                    NULL);
3513     }
3514 #endif
3515
3516
3517   GNUNET_CONTAINER_bloomfilter_add (msg_ctx->bloom, &my_identity.hashPubKey);
3518   hash_from_uid (msg_ctx->unique_id, &unique_hash);
3519   if (GNUNET_YES == GNUNET_CONTAINER_multihashmap_contains (recent.hashmap, &unique_hash))
3520   {
3521     recent_req = GNUNET_CONTAINER_multihashmap_get(recent.hashmap, &unique_hash);
3522     GNUNET_assert(recent_req != NULL);
3523     if (0 != memcmp(&recent_req->key, &msg_ctx->key, sizeof(GNUNET_HashCode)))
3524       increment_stats(STAT_DUPLICATE_UID);
3525     else
3526       {
3527         increment_stats(STAT_RECENT_SEEN);
3528         GNUNET_CONTAINER_bloomfilter_or2(msg_ctx->bloom, recent_req->bloom, DHT_BLOOM_SIZE);
3529       }
3530     }
3531   else
3532     {
3533       recent_req = GNUNET_malloc(sizeof(struct RecentRequest));
3534       recent_req->uid = msg_ctx->unique_id;
3535       memcpy(&recent_req->key, &msg_ctx->key, sizeof(GNUNET_HashCode));
3536       recent_req->remove_task = GNUNET_SCHEDULER_add_delayed(DEFAULT_RECENT_REMOVAL, &remove_recent, recent_req);
3537       recent_req->heap_node = GNUNET_CONTAINER_heap_insert(recent.minHeap, recent_req, GNUNET_TIME_absolute_get().abs_value);
3538       recent_req->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
3539       GNUNET_CONTAINER_multihashmap_put(recent.hashmap, &unique_hash, recent_req, GNUNET_CONTAINER_MULTIHASHMAPOPTION_UNIQUE_ONLY);
3540     }
3541
3542   if (GNUNET_CONTAINER_multihashmap_size(recent.hashmap) > DHT_MAX_RECENT)
3543     {
3544       recent_req = GNUNET_CONTAINER_heap_peek(recent.minHeap);
3545       GNUNET_assert(recent_req != NULL);
3546       GNUNET_SCHEDULER_cancel(recent_req->remove_task);
3547       GNUNET_SCHEDULER_add_now(&remove_recent, recent_req);
3548     }
3549
3550   for (i = 0; i < forward_count; i++)
3551     {
3552       selected = select_peer(&msg_ctx->key, msg_ctx->bloom, msg_ctx->hop_count);
3553
3554       if (selected != NULL)
3555         {
3556           if (GNUNET_CRYPTO_hash_matching_bits(&selected->id.hashPubKey, &msg_ctx->key) >= GNUNET_CRYPTO_hash_matching_bits(&my_identity.hashPubKey, &msg_ctx->key))
3557             GNUNET_asprintf(&temp_stat_str, "# requests routed to close(r) peer hop %u", msg_ctx->hop_count);
3558           else
3559             GNUNET_asprintf(&temp_stat_str, "# requests routed to less close peer hop %u", msg_ctx->hop_count);
3560           if (temp_stat_str != NULL)
3561             {
3562               increment_stats(temp_stat_str);
3563               GNUNET_free(temp_stat_str);
3564             }
3565           GNUNET_CONTAINER_bloomfilter_add(msg_ctx->bloom, &selected->id.hashPubKey);
3566 #if DEBUG_DHT_ROUTING > 1
3567           nearest = find_closest_peer(&msg_ctx->key);
3568           nearest_buf = GNUNET_strdup(GNUNET_i2s(&nearest->id));
3569           GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
3570                       "`%s:%s': Forwarding request key %s uid %llu to peer %s (closest %s, bits %d, distance %u)\n", my_short_id,
3571                       "DHT", GNUNET_h2s (&msg_ctx->key), msg_ctx->unique_id, GNUNET_i2s(&selected->id), nearest_buf, GNUNET_CRYPTO_hash_matching_bits(&nearest->id.hashPubKey, msg_ctx->key), distance(&nearest->id.hashPubKey, msg_ctx->key));
3572           GNUNET_free(nearest_buf);
3573 #endif
3574 #if DEBUG_DHT_ROUTING
3575           if ((debug_routes_extended) && (dhtlog_handle != NULL))
3576             {
3577               dhtlog_handle->insert_route (NULL, msg_ctx->unique_id, DHTLOG_ROUTE,
3578                                            msg_ctx->hop_count, GNUNET_NO,
3579                                            &my_identity, &msg_ctx->key, msg_ctx->peer,
3580                                            &selected->id);
3581             }
3582 #endif
3583           forward_message(msg, selected, msg_ctx);
3584         }
3585     }
3586
3587   if (msg_ctx->bloom != NULL)
3588     {
3589       GNUNET_CONTAINER_bloomfilter_or2(recent_req->bloom, msg_ctx->bloom, DHT_BLOOM_SIZE);
3590       GNUNET_CONTAINER_bloomfilter_free(msg_ctx->bloom);
3591     }
3592 }
3593
3594
3595
3596 /**
3597  * Main function that handles whether or not to route a message to other
3598  * peers.
3599  *
3600  * @param msg the message to be routed
3601  * @param msg_ctx the context containing all pertinent information about the message
3602  */
3603 static void
3604 demultiplex_message(const struct GNUNET_MessageHeader *msg,
3605                     struct DHT_MessageContext *msg_ctx)
3606 {
3607   msg_ctx->closest = am_closest_peer(&msg_ctx->key, NULL);
3608   switch (ntohs(msg->type))
3609     {
3610     case GNUNET_MESSAGE_TYPE_DHT_GET: /* Add to hashmap of requests seen, search for data (always) */
3611       cache_response (msg_ctx);
3612       handle_dht_get (msg, msg_ctx);
3613       break;
3614     case GNUNET_MESSAGE_TYPE_DHT_PUT: /* Check if closest, if so insert data. */
3615       increment_stats(STAT_PUTS);
3616       handle_dht_put (msg, msg_ctx);
3617       break;
3618     case GNUNET_MESSAGE_TYPE_DHT_FIND_PEER: /* Check if closest and not started by us, check options, add to requests seen */
3619       increment_stats(STAT_FIND_PEER);
3620       if (((msg_ctx->hop_count > 0) && (0 != memcmp(msg_ctx->peer, &my_identity, sizeof(struct GNUNET_PeerIdentity)))) || (msg_ctx->client != NULL))
3621       {
3622         cache_response (msg_ctx);
3623         if ((msg_ctx->closest == GNUNET_YES) || (msg_ctx->msg_options == GNUNET_DHT_RO_DEMULTIPLEX_EVERYWHERE))
3624           handle_dht_find_peer (msg, msg_ctx);
3625       }
3626       else
3627         route_message (msg, msg_ctx);
3628 #if DEBUG_DHT_ROUTING
3629       if (msg_ctx->hop_count == 0) /* Locally initiated request */
3630         {
3631           if ((debug_routes) && (dhtlog_handle != NULL))
3632             {
3633               dhtlog_handle->insert_dhtkey(NULL, &msg_ctx->key);
3634               dhtlog_handle->insert_query (NULL, msg_ctx->unique_id, DHTLOG_FIND_PEER,
3635                                            msg_ctx->hop_count, GNUNET_NO, &my_identity,
3636                                            &msg_ctx->key);
3637             }
3638         }
3639 #endif
3640       break;
3641     default:
3642       GNUNET_log (GNUNET_ERROR_TYPE_WARNING,
3643                   "`%s': Message type (%d) not handled, forwarding anyway!\n", "DHT", ntohs(msg->type));
3644       route_message (msg, msg_ctx);
3645     }
3646 }
3647
3648
3649
3650
3651 /**
3652  * Iterator for local get request results,
3653  *
3654  * @param cls closure for iterator, NULL
3655  * @param exp when does this value expire?
3656  * @param key the key this data is stored under
3657  * @param size the size of the data identified by key
3658  * @param data the actual data
3659  * @param type the type of the data
3660  *
3661  * @return GNUNET_OK to continue iteration, anything else
3662  * to stop iteration.
3663  */
3664 static int
3665 republish_content_iterator (void *cls,
3666                             struct GNUNET_TIME_Absolute exp,
3667                             const GNUNET_HashCode * key,
3668                             size_t size, const char *data, uint32_t type)
3669 {
3670
3671   struct DHT_MessageContext *new_msg_ctx;
3672   struct GNUNET_DHT_PutMessage *put_msg;
3673 #if DEBUG_DHT
3674   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
3675               "`%s:%s': Received `%s' response from datacache\n", my_short_id, "DHT", "GET");
3676 #endif
3677   new_msg_ctx = GNUNET_malloc(sizeof(struct DHT_MessageContext));
3678
3679   put_msg =
3680     GNUNET_malloc (sizeof (struct GNUNET_DHT_PutMessage) + size);
3681   put_msg->header.type = htons (GNUNET_MESSAGE_TYPE_DHT_PUT);
3682   put_msg->header.size = htons (sizeof (struct GNUNET_DHT_PutMessage) + size);
3683   put_msg->expiration = GNUNET_TIME_absolute_hton(exp);
3684   put_msg->type = htons (type);
3685   memcpy (&put_msg[1], data, size);
3686   new_msg_ctx->unique_id = GNUNET_ntohll (GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_WEAK, (uint64_t)-1));
3687   new_msg_ctx->replication = ntohl (DEFAULT_PUT_REPLICATION);
3688   new_msg_ctx->msg_options = ntohl (0);
3689   new_msg_ctx->network_size = estimate_diameter();
3690   new_msg_ctx->peer = &my_identity;
3691   new_msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
3692   new_msg_ctx->hop_count = 0;
3693   new_msg_ctx->importance = DHT_DEFAULT_P2P_IMPORTANCE;
3694   new_msg_ctx->timeout = DHT_DEFAULT_P2P_TIMEOUT;
3695   increment_stats(STAT_PUT_START);
3696   demultiplex_message(&put_msg->header, new_msg_ctx);
3697
3698   GNUNET_free(new_msg_ctx);
3699   GNUNET_free (put_msg);
3700   return GNUNET_OK;
3701 }
3702
3703 /**
3704  * Task used to republish data.
3705  *
3706  * @param cls closure (a struct RepublishContext)
3707  * @param tc runtime context for this task
3708  */
3709 static void
3710 republish_content(void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3711 {
3712   struct RepublishContext *put_context = cls;
3713
3714   unsigned int results;
3715
3716   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
3717     {
3718       GNUNET_free(put_context);
3719       return;
3720     }
3721
3722   GNUNET_assert (datacache != NULL); /* If we have no datacache we never should have scheduled this! */
3723   results = GNUNET_DATACACHE_get(datacache, &put_context->key, put_context->type, &republish_content_iterator, NULL);
3724   if (results == 0) /* Data must have expired */
3725     GNUNET_free(put_context);
3726   else /* Reschedule task for next time period */
3727     GNUNET_SCHEDULER_add_delayed(dht_republish_frequency, &republish_content, put_context);
3728
3729 }
3730
3731
3732 /**
3733  * Iterator over hash map entries.
3734  *
3735  * @param cls client to search for in source routes
3736  * @param key current key code (ignored)
3737  * @param value value in the hash map, a DHTQueryRecord
3738  * @return GNUNET_YES if we should continue to
3739  *         iterate,
3740  *         GNUNET_NO if not.
3741  */
3742 static int find_client_records (void *cls,
3743                                 const GNUNET_HashCode * key, void *value)
3744 {
3745   struct ClientList *client = cls;
3746   struct DHTQueryRecord *record = value;
3747   struct DHTRouteSource *pos;
3748   pos = record->head;
3749   while (pos != NULL)
3750     {
3751       if (pos->client == client)
3752         break;
3753       pos = pos->next;
3754     }
3755   if (pos != NULL)
3756     {
3757       GNUNET_CONTAINER_DLL_remove(record->head, record->tail, pos);
3758       GNUNET_CONTAINER_heap_remove_node(forward_list.minHeap, pos->hnode);
3759       if (pos->delete_task != GNUNET_SCHEDULER_NO_TASK)
3760         GNUNET_SCHEDULER_cancel(pos->delete_task);
3761
3762       if (pos->find_peers_responded != NULL)
3763         GNUNET_CONTAINER_bloomfilter_free(pos->find_peers_responded);
3764       GNUNET_free(pos);
3765     }
3766   if (record->head == NULL) /* No more entries in DLL */
3767     {
3768       GNUNET_assert(GNUNET_YES == GNUNET_CONTAINER_multihashmap_remove(forward_list.hashmap, &record->key, record));
3769       GNUNET_free(record);
3770     }
3771   return GNUNET_YES;
3772 }
3773
3774 /**
3775  * Functions with this signature are called whenever a client
3776  * is disconnected on the network level.
3777  *
3778  * @param cls closure (NULL for dht)
3779  * @param client identification of the client; NULL
3780  *        for the last call when the server is destroyed
3781  */
3782 static void handle_client_disconnect (void *cls,
3783                                       struct GNUNET_SERVER_Client* client)
3784 {
3785   struct ClientList *pos = client_list;
3786   struct ClientList *prev;
3787   struct ClientList *found;
3788   struct PendingMessage *reply;
3789
3790   prev = NULL;
3791   found = NULL;
3792   while (pos != NULL)
3793     {
3794       if (pos->client_handle == client)
3795         {
3796           if (prev != NULL)
3797             prev->next = pos->next;
3798           else
3799             client_list = pos->next;
3800           found = pos;
3801           break;
3802         }
3803       prev = pos;
3804       pos = pos->next;
3805     }
3806
3807   if (found != NULL)
3808     {
3809       while(NULL != (reply = found->pending_head))
3810         {
3811           GNUNET_CONTAINER_DLL_remove(found->pending_head, found->pending_tail, reply);
3812           GNUNET_free(reply);
3813         }
3814       GNUNET_CONTAINER_multihashmap_iterate(forward_list.hashmap, &find_client_records, found);
3815       GNUNET_free(found);
3816     }
3817 }
3818
3819 /**
3820  * Find a client if it exists, add it otherwise.
3821  *
3822  * @param client the server handle to the client
3823  *
3824  * @return the client if found, a new client otherwise
3825  */
3826 static struct ClientList *
3827 find_active_client (struct GNUNET_SERVER_Client *client)
3828 {
3829   struct ClientList *pos = client_list;
3830   struct ClientList *ret;
3831
3832   while (pos != NULL)
3833     {
3834       if (pos->client_handle == client)
3835         return pos;
3836       pos = pos->next;
3837     }
3838
3839   ret = GNUNET_malloc (sizeof (struct ClientList));
3840   ret->client_handle = client;
3841   ret->next = client_list;
3842   client_list = ret;
3843
3844   return ret;
3845 }
3846
3847 #if HAVE_MALICIOUS
3848 /**
3849  * Task to send a malicious put message across the network.
3850  *
3851  * @param cls closure for this task
3852  * @param tc the context under which the task is running
3853  */
3854 static void
3855 malicious_put_task (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3856 {
3857   static struct GNUNET_DHT_PutMessage put_message;
3858   static struct DHT_MessageContext msg_ctx;
3859   static GNUNET_HashCode key;
3860   uint32_t random_key;
3861
3862   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
3863     return;
3864   put_message.header.size = htons(sizeof(struct GNUNET_DHT_PutMessage));
3865   put_message.header.type = htons(GNUNET_MESSAGE_TYPE_DHT_PUT);
3866   put_message.type = htonl(GNUNET_BLOCK_DHT_MALICIOUS_MESSAGE_TYPE);
3867   put_message.expiration = GNUNET_TIME_absolute_hton(GNUNET_TIME_absolute_get_forever());
3868   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
3869   random_key = GNUNET_CRYPTO_random_u32(GNUNET_CRYPTO_QUALITY_WEAK, (uint32_t)-1);
3870   GNUNET_CRYPTO_hash(&random_key, sizeof(uint32_t), &key);
3871   memcpy(&msg_ctx.key, &key, sizeof(GNUNET_HashCode));
3872   msg_ctx.unique_id = GNUNET_ntohll (GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_WEAK, (uint64_t)-1));
3873   msg_ctx.replication = ntohl (DHT_DEFAULT_FIND_PEER_REPLICATION);
3874   msg_ctx.msg_options = ntohl (0);
3875   msg_ctx.network_size = estimate_diameter();
3876   msg_ctx.peer = &my_identity;
3877   msg_ctx.importance = DHT_DEFAULT_P2P_IMPORTANCE;
3878   msg_ctx.timeout = DHT_DEFAULT_P2P_TIMEOUT;
3879 #if DEBUG_DHT_ROUTING
3880   if (dhtlog_handle != NULL)
3881     dhtlog_handle->insert_dhtkey(NULL, &key);
3882 #endif
3883   increment_stats(STAT_PUT_START);
3884   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Sending malicious PUT message with hash %s\n", my_short_id, "DHT", GNUNET_h2s(&key));
3885   demultiplex_message(&put_message.header, &msg_ctx);
3886   GNUNET_SCHEDULER_add_delayed(GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MILLISECONDS, malicious_put_frequency), &malicious_put_task, NULL);
3887 }
3888
3889
3890 /**
3891  * Task to send a malicious put message across the network.
3892  *
3893  * @param cls closure for this task
3894  * @param tc the context under which the task is running
3895  */
3896 static void
3897 malicious_get_task (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3898 {
3899   static struct GNUNET_DHT_GetMessage get_message;
3900   struct DHT_MessageContext msg_ctx;
3901   static GNUNET_HashCode key;
3902   uint32_t random_key;
3903
3904   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
3905     return;
3906
3907   get_message.header.size = htons(sizeof(struct GNUNET_DHT_GetMessage));
3908   get_message.header.type = htons(GNUNET_MESSAGE_TYPE_DHT_GET);
3909   get_message.type = htonl(GNUNET_BLOCK_DHT_MALICIOUS_MESSAGE_TYPE);
3910   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
3911   random_key = GNUNET_CRYPTO_random_u32(GNUNET_CRYPTO_QUALITY_WEAK, (uint32_t)-1);
3912   GNUNET_CRYPTO_hash(&random_key, sizeof(uint32_t), &key);
3913   memcpy(&msg_ctx.key, &key, sizeof(GNUNET_HashCode));
3914   msg_ctx.unique_id = GNUNET_ntohll (GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_WEAK, (uint64_t)-1));
3915   msg_ctx.replication = ntohl (DHT_DEFAULT_FIND_PEER_REPLICATION);
3916   msg_ctx.msg_options = ntohl (0);
3917   msg_ctx.network_size = estimate_diameter();
3918   msg_ctx.peer = &my_identity;
3919   msg_ctx.importance = DHT_DEFAULT_P2P_IMPORTANCE;
3920   msg_ctx.timeout = DHT_DEFAULT_P2P_TIMEOUT;
3921 #if DEBUG_DHT_ROUTING
3922   if (dhtlog_handle != NULL)
3923     dhtlog_handle->insert_dhtkey(NULL, &key);
3924 #endif
3925   increment_stats(STAT_GET_START);
3926   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Sending malicious GET message with hash %s\n", my_short_id, "DHT", GNUNET_h2s(&key));
3927   demultiplex_message (&get_message.header, &msg_ctx);
3928   GNUNET_SCHEDULER_add_delayed(GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MILLISECONDS, malicious_get_frequency), &malicious_get_task, NULL);
3929 }
3930 #endif
3931
3932
3933 /**
3934  * Iterator over hash map entries.
3935  *
3936  * @param cls closure
3937  * @param key current key code
3938  * @param value value in the hash map
3939  * @return GNUNET_YES if we should continue to
3940  *         iterate,
3941  *         GNUNET_NO if not.
3942  */
3943 static int
3944 add_known_to_bloom (void *cls,
3945                     const GNUNET_HashCode * key,
3946                     void *value)
3947 {
3948   struct GNUNET_CONTAINER_BloomFilter *bloom = cls;
3949   GNUNET_CONTAINER_bloomfilter_add (bloom, key);
3950   return GNUNET_YES;
3951 }
3952
3953 /**
3954  * Task to send a find peer message for our own peer identifier
3955  * so that we can find the closest peers in the network to ourselves
3956  * and attempt to connect to them.
3957  *
3958  * @param cls closure for this task
3959  * @param tc the context under which the task is running
3960  */
3961 static void
3962 send_find_peer_message (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
3963 {
3964   struct GNUNET_DHT_FindPeerMessage *find_peer_msg;
3965   struct DHT_MessageContext msg_ctx;
3966   struct GNUNET_TIME_Relative next_send_time;
3967   struct GNUNET_CONTAINER_BloomFilter *temp_bloom;
3968 #if COUNT_INTERVAL
3969   struct GNUNET_TIME_Relative time_diff;
3970   struct GNUNET_TIME_Absolute end;
3971   double multiplier;
3972   double count_per_interval;
3973 #endif
3974   if (tc->reason == GNUNET_SCHEDULER_REASON_SHUTDOWN)
3975     return;
3976
3977   if ((newly_found_peers > bucket_size) && (GNUNET_YES == do_find_peer)) /* If we are finding peers already, no need to send out our request right now! */
3978     {
3979       GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "Have %d newly found peers since last find peer message sent!\n", newly_found_peers);
3980       GNUNET_SCHEDULER_add_delayed (GNUNET_TIME_UNIT_MINUTES,
3981                                     &send_find_peer_message, NULL);
3982       newly_found_peers = 0;
3983       return;
3984     }
3985     
3986   increment_stats(STAT_FIND_PEER_START);
3987 #if COUNT_INTERVAL
3988   end = GNUNET_TIME_absolute_get();
3989   time_diff = GNUNET_TIME_absolute_get_difference(find_peer_context.start, end);
3990
3991   if (time_diff.abs_value > FIND_PEER_CALC_INTERVAL.abs_value)
3992     {
3993       multiplier = time_diff.abs_value / FIND_PEER_CALC_INTERVAL.abs_value;
3994       count_per_interval = find_peer_context.count / multiplier;
3995     }
3996   else
3997     {
3998       multiplier = FIND_PEER_CALC_INTERVAL.abs_value / time_diff.abs_value;
3999       count_per_interval = find_peer_context.count * multiplier;
4000     }
4001 #endif
4002
4003 #if FIND_PEER_WITH_HELLO
4004   find_peer_msg = GNUNET_malloc(sizeof(struct GNUNET_DHT_FindPeerMessage) + GNUNET_HELLO_size((struct GNUNET_HELLO_Message *)my_hello));
4005   find_peer_msg->header.size = htons(sizeof(struct GNUNET_DHT_FindPeerMessage) + GNUNET_HELLO_size((struct GNUNET_HELLO_Message *)my_hello));
4006   memcpy(&find_peer_msg[1], my_hello, GNUNET_HELLO_size((struct GNUNET_HELLO_Message *)my_hello));
4007 #else
4008   find_peer_msg = GNUNET_malloc(sizeof(struct GNUNET_DHT_FindPeerMessage));
4009   find_peer_msg->header.size = htons(sizeof(struct GNUNET_DHT_FindPeerMessage));
4010 #endif
4011   find_peer_msg->header.type = htons(GNUNET_MESSAGE_TYPE_DHT_FIND_PEER);
4012   temp_bloom = GNUNET_CONTAINER_bloomfilter_init (NULL, DHT_BLOOM_SIZE, DHT_BLOOM_K);
4013   GNUNET_CONTAINER_multihashmap_iterate(all_known_peers, &add_known_to_bloom, temp_bloom);
4014   GNUNET_assert(GNUNET_OK == GNUNET_CONTAINER_bloomfilter_get_raw_data(temp_bloom, find_peer_msg->bloomfilter, DHT_BLOOM_SIZE));
4015   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
4016   memcpy(&msg_ctx.key, &my_identity.hashPubKey, sizeof(GNUNET_HashCode));
4017   msg_ctx.unique_id = GNUNET_ntohll (GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_STRONG, (uint64_t)-1));
4018   msg_ctx.replication = DHT_DEFAULT_FIND_PEER_REPLICATION;
4019   msg_ctx.msg_options = DHT_DEFAULT_FIND_PEER_OPTIONS;
4020   msg_ctx.network_size = estimate_diameter();
4021   msg_ctx.peer = &my_identity;
4022   msg_ctx.importance = DHT_DEFAULT_FIND_PEER_IMPORTANCE;
4023   msg_ctx.timeout = DHT_DEFAULT_FIND_PEER_TIMEOUT;
4024
4025   demultiplex_message(&find_peer_msg->header, &msg_ctx);
4026   GNUNET_free(find_peer_msg);
4027   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4028               "`%s:%s': Sent `%s' request to some (?) peers\n", my_short_id, "DHT",
4029               "FIND PEER");
4030   if (newly_found_peers < bucket_size)
4031     {
4032       next_send_time.rel_value = (DHT_MAXIMUM_FIND_PEER_INTERVAL.rel_value / 2) +
4033                               GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_STRONG,
4034                                                        DHT_MAXIMUM_FIND_PEER_INTERVAL.rel_value / 2);
4035     }
4036   else
4037     {
4038       next_send_time.rel_value = DHT_MINIMUM_FIND_PEER_INTERVAL.rel_value +
4039                              GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_STRONG,
4040                                                       DHT_MAXIMUM_FIND_PEER_INTERVAL.rel_value - DHT_MINIMUM_FIND_PEER_INTERVAL.rel_value);
4041     }
4042
4043   GNUNET_assert (next_send_time.rel_value != 0);
4044   find_peer_context.count = 0;
4045   newly_found_peers = 0;
4046   find_peer_context.start = GNUNET_TIME_absolute_get();
4047   if (GNUNET_YES == do_find_peer)
4048   {
4049     GNUNET_SCHEDULER_add_delayed (next_send_time,
4050                                   &send_find_peer_message, NULL);
4051   }
4052 }
4053
4054 /**
4055  * Handler for any generic DHT messages, calls the appropriate handler
4056  * depending on message type, sends confirmation if responses aren't otherwise
4057  * expected.
4058  *
4059  * @param cls closure for the service
4060  * @param client the client we received this message from
4061  * @param message the actual message received
4062  */
4063 static void
4064 handle_dht_local_route_request (void *cls, struct GNUNET_SERVER_Client *client,
4065                                 const struct GNUNET_MessageHeader *message)
4066 {
4067   const struct GNUNET_DHT_RouteMessage *dht_msg = (const struct GNUNET_DHT_RouteMessage *) message;
4068   const struct GNUNET_MessageHeader *enc_msg;
4069   struct DHT_MessageContext msg_ctx;
4070
4071   enc_msg = (const struct GNUNET_MessageHeader *) &dht_msg[1];
4072 #if DEBUG_DHT
4073   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4074               "`%s:%s': Received `%s' request from client, message type %d, key %s, uid %llu\n",
4075               my_short_id, 
4076               "DHT",
4077               "GENERIC",
4078               ntohs (message->type), 
4079               GNUNET_h2s (&dht_msg->key),
4080               GNUNET_ntohll (dht_msg->unique_id));
4081 #endif
4082 #if DEBUG_DHT_ROUTING
4083   if (dhtlog_handle != NULL)
4084     dhtlog_handle->insert_dhtkey (NULL, &dht_msg->key);
4085 #endif
4086   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
4087   msg_ctx.client = find_active_client (client);
4088   memcpy(&msg_ctx.key, &dht_msg->key, sizeof(GNUNET_HashCode));
4089   msg_ctx.unique_id = GNUNET_ntohll (dht_msg->unique_id);
4090   msg_ctx.replication = ntohl (dht_msg->desired_replication_level);
4091   msg_ctx.msg_options = ntohl (dht_msg->options);
4092   msg_ctx.network_size = estimate_diameter();
4093   msg_ctx.peer = &my_identity;
4094   msg_ctx.importance = DHT_DEFAULT_P2P_IMPORTANCE + 4; /* Make local routing a higher priority */
4095   msg_ctx.timeout = DHT_DEFAULT_P2P_TIMEOUT;
4096   if (ntohs(enc_msg->type) == GNUNET_MESSAGE_TYPE_DHT_GET)
4097     increment_stats(STAT_GET_START);
4098   else if (ntohs(enc_msg->type) == GNUNET_MESSAGE_TYPE_DHT_PUT)
4099     increment_stats(STAT_PUT_START);
4100   else if (ntohs(enc_msg->type) == GNUNET_MESSAGE_TYPE_DHT_FIND_PEER)
4101     increment_stats(STAT_FIND_PEER_START);
4102
4103   demultiplex_message(enc_msg, &msg_ctx);
4104
4105   GNUNET_SERVER_receive_done (client, GNUNET_OK);
4106
4107 }
4108
4109 /**
4110  * Handler for any locally received DHT control messages,
4111  * sets malicious flags mostly for now.
4112  *
4113  * @param cls closure for the service
4114  * @param client the client we received this message from
4115  * @param message the actual message received
4116  *
4117  */
4118 static void
4119 handle_dht_control_message (void *cls, struct GNUNET_SERVER_Client *client,
4120                             const struct GNUNET_MessageHeader *message)
4121 {
4122   const struct GNUNET_DHT_ControlMessage *dht_control_msg =
4123       (const struct GNUNET_DHT_ControlMessage *) message;
4124 #if DEBUG_DHT
4125   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4126               "`%s:%s': Received `%s' request from client, command %d\n", my_short_id, "DHT",
4127               "CONTROL", ntohs(dht_control_msg->command));
4128 #endif
4129
4130   switch (ntohs(dht_control_msg->command))
4131   {
4132   case GNUNET_MESSAGE_TYPE_DHT_FIND_PEER:
4133     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Sending self seeking find peer request!\n");
4134     GNUNET_SCHEDULER_add_now(&send_find_peer_message, NULL);
4135     break;
4136 #if HAVE_MALICIOUS
4137   case GNUNET_MESSAGE_TYPE_DHT_MALICIOUS_GET:
4138     if (ntohs(dht_control_msg->variable) > 0)
4139       malicious_get_frequency = ntohs(dht_control_msg->variable);
4140     if (malicious_get_frequency == 0)
4141       malicious_get_frequency = DEFAULT_MALICIOUS_GET_FREQUENCY;
4142     if (malicious_getter != GNUNET_YES)
4143       GNUNET_SCHEDULER_add_now(&malicious_get_task, NULL);
4144     malicious_getter = GNUNET_YES;
4145     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, 
4146                "%s:%s Initiating malicious GET behavior, frequency %d\n", my_short_id, "DHT", malicious_get_frequency);
4147     break;
4148   case GNUNET_MESSAGE_TYPE_DHT_MALICIOUS_PUT:
4149     if (ntohs(dht_control_msg->variable) > 0)
4150       malicious_put_frequency = ntohs(dht_control_msg->variable);
4151     if (malicious_put_frequency == 0)
4152       malicious_put_frequency = DEFAULT_MALICIOUS_PUT_FREQUENCY;
4153     if (malicious_putter != GNUNET_YES)
4154       GNUNET_SCHEDULER_add_now(&malicious_put_task, NULL);
4155     malicious_putter = GNUNET_YES;
4156     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG,
4157                "%s:%s Initiating malicious PUT behavior, frequency %d\n", my_short_id, "DHT", malicious_put_frequency);
4158     break;
4159   case GNUNET_MESSAGE_TYPE_DHT_MALICIOUS_DROP:
4160 #if DEBUG_DHT_ROUTING
4161     if ((malicious_dropper != GNUNET_YES) && (dhtlog_handle != NULL))
4162       dhtlog_handle->set_malicious(&my_identity);
4163 #endif
4164     malicious_dropper = GNUNET_YES;
4165     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG,
4166                "%s:%s Initiating malicious DROP behavior\n", my_short_id, "DHT");
4167     break;
4168 #endif
4169   default:
4170     GNUNET_log(GNUNET_ERROR_TYPE_WARNING, 
4171                "%s:%s Unknown control command type `%d'!\n", 
4172                my_short_id, "DHT",
4173                ntohs(dht_control_msg->command));
4174     break;
4175   }
4176
4177   GNUNET_SERVER_receive_done (client, GNUNET_OK);
4178 }
4179
4180 /**
4181  * Handler for any generic DHT stop messages, calls the appropriate handler
4182  * depending on message type (if processed locally)
4183  *
4184  * @param cls closure for the service
4185  * @param client the client we received this message from
4186  * @param message the actual message received
4187  *
4188  */
4189 static void
4190 handle_dht_local_route_stop(void *cls, struct GNUNET_SERVER_Client *client,
4191                             const struct GNUNET_MessageHeader *message)
4192 {
4193
4194   const struct GNUNET_DHT_StopMessage *dht_stop_msg =
4195     (const struct GNUNET_DHT_StopMessage *) message;
4196   struct DHTQueryRecord *record;
4197   struct DHTRouteSource *pos;
4198 #if DEBUG_DHT
4199   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4200               "`%s:%s': Received `%s' request from client, uid %llu\n", my_short_id, "DHT",
4201               "GENERIC STOP", GNUNET_ntohll (dht_stop_msg->unique_id));
4202 #endif
4203   record = GNUNET_CONTAINER_multihashmap_get(forward_list.hashmap, &dht_stop_msg->key);
4204   if (record != NULL)
4205     {
4206       pos = record->head;
4207
4208       while (pos != NULL)
4209         {
4210           if ((pos->client != NULL) && (pos->client->client_handle == client))
4211             {
4212               GNUNET_SCHEDULER_cancel(pos->delete_task);
4213               pos->delete_task = GNUNET_SCHEDULER_NO_TASK;
4214               GNUNET_SCHEDULER_add_now(&remove_forward_entry, pos);
4215             }
4216           pos = pos->next;
4217         }
4218     }
4219
4220   GNUNET_SERVER_receive_done (client, GNUNET_OK);
4221 }
4222
4223
4224 /**
4225  * Core handler for p2p route requests.
4226  */
4227 static int
4228 handle_dht_p2p_route_request (void *cls,
4229                               const struct GNUNET_PeerIdentity *peer,
4230                               const struct GNUNET_MessageHeader *message,
4231                               struct GNUNET_TIME_Relative latency, uint32_t distance)
4232 {
4233 #if DEBUG_DHT
4234   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4235               "`%s:%s': Received P2P request from peer %s\n", my_short_id, "DHT", GNUNET_i2s(peer));
4236 #endif
4237   struct GNUNET_DHT_P2PRouteMessage *incoming = (struct GNUNET_DHT_P2PRouteMessage *)message;
4238   struct GNUNET_MessageHeader *enc_msg = (struct GNUNET_MessageHeader *)&incoming[1];
4239   struct DHT_MessageContext *msg_ctx;
4240
4241   if (get_max_send_delay().rel_value > MAX_REQUEST_TIME.rel_value)
4242   {
4243     GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "Sending of previous replies took too long, backing off!\n");
4244     increment_stats("# route requests dropped due to high load");
4245     decrease_max_send_delay(get_max_send_delay());
4246     return GNUNET_YES;
4247   }
4248
4249   if (ntohs(enc_msg->type) == GNUNET_MESSAGE_TYPE_DHT_P2P_PING) /* Throw these away. FIXME: Don't throw these away? (reply)*/
4250     {
4251 #if DEBUG_PING
4252       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s Received P2P Ping message.\n", my_short_id, "DHT");
4253 #endif
4254       return GNUNET_YES;
4255     }
4256
4257   if (ntohs(enc_msg->size) >= GNUNET_SERVER_MAX_MESSAGE_SIZE - 1)
4258     {
4259       GNUNET_break_op(0);
4260       return GNUNET_YES;
4261     }
4262   msg_ctx = GNUNET_malloc(sizeof (struct DHT_MessageContext));
4263   msg_ctx->bloom = GNUNET_CONTAINER_bloomfilter_init(incoming->bloomfilter, DHT_BLOOM_SIZE, DHT_BLOOM_K);
4264   GNUNET_assert(msg_ctx->bloom != NULL);
4265   msg_ctx->hop_count = ntohl(incoming->hop_count);
4266   memcpy(&msg_ctx->key, &incoming->key, sizeof(GNUNET_HashCode));
4267   msg_ctx->replication = ntohl(incoming->desired_replication_level);
4268   msg_ctx->unique_id = GNUNET_ntohll(incoming->unique_id);
4269   msg_ctx->msg_options = ntohl(incoming->options);
4270   msg_ctx->network_size = ntohl(incoming->network_size);
4271   msg_ctx->peer = peer;
4272   msg_ctx->importance = DHT_DEFAULT_P2P_IMPORTANCE;
4273   msg_ctx->timeout = DHT_DEFAULT_P2P_TIMEOUT;
4274   demultiplex_message(enc_msg, msg_ctx);
4275   GNUNET_free(msg_ctx);
4276   return GNUNET_YES;
4277 }
4278
4279
4280 /**
4281  * Core handler for p2p route results.
4282  */
4283 static int
4284 handle_dht_p2p_route_result (void *cls,
4285                              const struct GNUNET_PeerIdentity *peer,
4286                              const struct GNUNET_MessageHeader *message,
4287                              struct GNUNET_TIME_Relative latency, uint32_t distance)
4288 {
4289 #if DEBUG_DHT
4290   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4291               "`%s:%s': Received request from peer %s\n", my_short_id, "DHT", GNUNET_i2s(peer));
4292 #endif
4293   struct GNUNET_DHT_P2PRouteResultMessage *incoming = (struct GNUNET_DHT_P2PRouteResultMessage *)message;
4294   struct GNUNET_MessageHeader *enc_msg = (struct GNUNET_MessageHeader *)&incoming[1];
4295   struct DHT_MessageContext msg_ctx;
4296
4297   if (ntohs(enc_msg->size) >= GNUNET_SERVER_MAX_MESSAGE_SIZE - 1)
4298     {
4299       GNUNET_break_op(0);
4300       return GNUNET_YES;
4301     }
4302
4303   memset(&msg_ctx, 0, sizeof(struct DHT_MessageContext));
4304   // FIXME: call GNUNET_BLOCK_evaluate (...) -- instead of doing your own bloomfilter!
4305   msg_ctx.bloom = GNUNET_CONTAINER_bloomfilter_init(incoming->bloomfilter, DHT_BLOOM_SIZE, DHT_BLOOM_K);
4306   GNUNET_assert(msg_ctx.bloom != NULL);
4307   memcpy(&msg_ctx.key, &incoming->key, sizeof(GNUNET_HashCode));
4308   msg_ctx.unique_id = GNUNET_ntohll(incoming->unique_id);
4309   msg_ctx.msg_options = ntohl(incoming->options);
4310   msg_ctx.hop_count = ntohl(incoming->hop_count);
4311   msg_ctx.peer = peer;
4312   msg_ctx.importance = DHT_DEFAULT_P2P_IMPORTANCE + 2; /* Make result routing a higher priority */
4313   msg_ctx.timeout = DHT_DEFAULT_P2P_TIMEOUT;
4314   route_result_message(enc_msg, &msg_ctx);
4315   return GNUNET_YES;
4316 }
4317
4318
4319 /**
4320  * Receive the HELLO from transport service,
4321  * free current and replace if necessary.
4322  *
4323  * @param cls NULL
4324  * @param message HELLO message of peer
4325  */
4326 static void
4327 process_hello (void *cls, const struct GNUNET_MessageHeader *message)
4328 {
4329 #if DEBUG_DHT
4330   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4331               "Received our `%s' from transport service\n",
4332               "HELLO");
4333 #endif
4334
4335   GNUNET_assert (message != NULL);
4336   GNUNET_free_non_null(my_hello);
4337   my_hello = GNUNET_malloc(ntohs(message->size));
4338   memcpy(my_hello, message, ntohs(message->size));
4339 }
4340
4341
4342 /**
4343  * Task run during shutdown.
4344  *
4345  * @param cls unused
4346  * @param tc unused
4347  */
4348 static void
4349 shutdown_task (void *cls, const struct GNUNET_SCHEDULER_TaskContext *tc)
4350 {
4351   int bucket_count;
4352   struct PeerInfo *pos;
4353
4354   if (transport_handle != NULL)
4355     {
4356       GNUNET_free_non_null(my_hello);
4357       GNUNET_TRANSPORT_get_hello_cancel(transport_handle, &process_hello, NULL);
4358       GNUNET_TRANSPORT_disconnect(transport_handle);
4359     }
4360   for (bucket_count = lowest_bucket; bucket_count < MAX_BUCKETS; bucket_count++)
4361     {
4362       while (k_buckets[bucket_count].head != NULL)
4363         {
4364           pos = k_buckets[bucket_count].head;
4365 #if DEBUG_DHT
4366           GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4367                       "%s:%s Removing peer %s from bucket %d!\n", my_short_id, "DHT", GNUNET_i2s(&pos->id), bucket_count);
4368 #endif
4369           delete_peer(pos, bucket_count);
4370         }
4371     }
4372   if (coreAPI != NULL)
4373     {
4374 #if DEBUG_DHT
4375       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4376                   "%s:%s Disconnecting core!\n", my_short_id, "DHT");
4377 #endif
4378       GNUNET_CORE_disconnect (coreAPI);
4379       coreAPI = NULL;
4380     }
4381   if (datacache != NULL)
4382     {
4383 #if DEBUG_DHT
4384       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4385                   "%s:%s Destroying datacache!\n", my_short_id, "DHT");
4386 #endif
4387       GNUNET_DATACACHE_destroy (datacache);
4388       datacache = NULL;
4389     }
4390   if (stats != NULL)
4391     {
4392       GNUNET_STATISTICS_destroy (stats, GNUNET_YES);
4393       stats = NULL;
4394     }
4395   if (dhtlog_handle != NULL)
4396     {
4397       GNUNET_DHTLOG_disconnect(dhtlog_handle);
4398       dhtlog_handle = NULL;
4399     }
4400   if (block_context != NULL)
4401     {
4402       GNUNET_BLOCK_context_destroy (block_context);
4403       block_context = NULL;
4404     }
4405   GNUNET_free_non_null(my_short_id);
4406   my_short_id = NULL;
4407 }
4408
4409
4410 /**
4411  * To be called on core init/fail.
4412  *
4413  * @param cls service closure
4414  * @param server handle to the server for this service
4415  * @param identity the public identity of this peer
4416  * @param publicKey the public key of this peer
4417  */
4418 void
4419 core_init (void *cls,
4420            struct GNUNET_CORE_Handle *server,
4421            const struct GNUNET_PeerIdentity *identity,
4422            const struct GNUNET_CRYPTO_RsaPublicKeyBinaryEncoded *publicKey)
4423 {
4424
4425   if (server == NULL)
4426     {
4427 #if DEBUG_DHT
4428   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4429               "%s: Connection to core FAILED!\n", "dht",
4430               GNUNET_i2s (identity));
4431 #endif
4432       GNUNET_SCHEDULER_cancel (cleanup_task);
4433       GNUNET_SCHEDULER_add_now (&shutdown_task, NULL);
4434       return;
4435     }
4436 #if DEBUG_DHT
4437   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4438               "%s: Core connection initialized, I am peer: %s\n", "dht",
4439               GNUNET_i2s (identity));
4440 #endif
4441
4442   /* Copy our identity so we can use it */
4443   memcpy (&my_identity, identity, sizeof (struct GNUNET_PeerIdentity));
4444   if (my_short_id != NULL)
4445     GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "%s Receive CORE INIT message but have already been initialized! Did CORE fail?\n", "DHT SERVICE");
4446   my_short_id = GNUNET_strdup(GNUNET_i2s(&my_identity));
4447   /* Set the server to local variable */
4448   coreAPI = server;
4449
4450   if (dhtlog_handle != NULL)
4451     dhtlog_handle->insert_node (NULL, &my_identity);
4452 }
4453
4454
4455 static struct GNUNET_SERVER_MessageHandler plugin_handlers[] = {
4456   {&handle_dht_local_route_request, NULL, GNUNET_MESSAGE_TYPE_DHT_LOCAL_ROUTE, 0},
4457   {&handle_dht_local_route_stop, NULL, GNUNET_MESSAGE_TYPE_DHT_LOCAL_ROUTE_STOP, 0},
4458   {&handle_dht_control_message, NULL, GNUNET_MESSAGE_TYPE_DHT_CONTROL, 0},
4459   {NULL, NULL, 0, 0}
4460 };
4461
4462
4463 static struct GNUNET_CORE_MessageHandler core_handlers[] = {
4464   {&handle_dht_p2p_route_request, GNUNET_MESSAGE_TYPE_DHT_P2P_ROUTE, 0},
4465   {&handle_dht_p2p_route_result, GNUNET_MESSAGE_TYPE_DHT_P2P_ROUTE_RESULT, 0},
4466   {NULL, 0, 0}
4467 };
4468
4469
4470 /**
4471  * Method called whenever a peer connects.
4472  *
4473  * @param cls closure
4474  * @param peer peer identity this notification is about
4475  * @param latency reported latency of the connection with peer
4476  * @param distance reported distance (DV) to peer
4477  */
4478 void handle_core_connect (void *cls,
4479                           const struct GNUNET_PeerIdentity * peer,
4480                           struct GNUNET_TIME_Relative latency,
4481                           uint32_t distance)
4482 {
4483   struct PeerInfo *ret;
4484
4485 #if DEBUG_DHT
4486   GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4487               "%s:%s Receives core connect message for peer %s distance %d!\n", my_short_id, "dht", GNUNET_i2s(peer), distance);
4488 #endif
4489
4490   if (GNUNET_YES == GNUNET_CONTAINER_multihashmap_contains(all_known_peers, &peer->hashPubKey))
4491     {
4492       GNUNET_log (GNUNET_ERROR_TYPE_DEBUG, "%s:%s Received %s message for peer %s, but already have peer in RT!", my_short_id, "DHT", "CORE CONNECT", GNUNET_i2s(peer));
4493       return;
4494     }
4495
4496   if (datacache != NULL)
4497     GNUNET_DATACACHE_put(datacache, &peer->hashPubKey, sizeof(struct GNUNET_PeerIdentity), (const char *)peer, GNUNET_BLOCK_TYPE_DHT_HELLO, GNUNET_TIME_absolute_get_forever());
4498   ret = try_add_peer(peer,
4499                      find_current_bucket(&peer->hashPubKey),
4500                      latency,
4501                      distance);
4502   if (ret != NULL)
4503     {
4504       newly_found_peers++;
4505       GNUNET_CONTAINER_multihashmap_put(all_known_peers, &peer->hashPubKey, ret, GNUNET_CONTAINER_MULTIHASHMAPOPTION_UNIQUE_ONLY);
4506     }
4507 #if DEBUG_DHT
4508     GNUNET_log (GNUNET_ERROR_TYPE_DEBUG,
4509                 "%s:%s Adding peer to routing list: %s\n", my_short_id, "DHT", ret == NULL ? "NOT ADDED" : "PEER ADDED");
4510 #endif
4511 }
4512
4513
4514 /**
4515  * Method called whenever a peer disconnects.
4516  *
4517  * @param cls closure
4518  * @param peer peer identity this notification is about
4519  */
4520 void handle_core_disconnect (void *cls,
4521                              const struct
4522                              GNUNET_PeerIdentity * peer)
4523 {
4524   struct PeerInfo *to_remove;
4525   int current_bucket;
4526
4527   GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s: Received peer disconnect message for peer `%s' from %s\n", my_short_id, "DHT", GNUNET_i2s(peer), "CORE");
4528
4529   if (GNUNET_YES != GNUNET_CONTAINER_multihashmap_contains(all_known_peers, &peer->hashPubKey))
4530     {
4531       GNUNET_log(GNUNET_ERROR_TYPE_DEBUG, "%s:%s: do not have peer `%s' in RT, can't disconnect!\n", my_short_id, "DHT", GNUNET_i2s(peer));
4532       return;
4533     }
4534   increment_stats(STAT_DISCONNECTS);
4535   GNUNET_assert(GNUNET_CONTAINER_multihashmap_contains(all_known_peers, &peer->hashPubKey));
4536   to_remove = GNUNET_CONTAINER_multihashmap_get(all_known_peers, &peer->hashPubKey);
4537   GNUNET_assert (to_remove != NULL);
4538   GNUNET_assert(0 == memcmp(peer, &to_remove->id, sizeof(struct GNUNET_PeerIdentity)));
4539   current_bucket = find_current_bucket(&to_remove->id.hashPubKey);
4540   delete_peer(to_remove, current_bucket);
4541 }
4542
4543
4544 /**
4545  * Process dht requests.
4546  *
4547  * @param cls closure
4548  * @param server the initialized server
4549  * @param c configuration to use
4550  */
4551 static void
4552 run (void *cls,
4553      struct GNUNET_SERVER_Handle *server,
4554      const struct GNUNET_CONFIGURATION_Handle *c)
4555 {
4556   struct GNUNET_TIME_Relative next_send_time;
4557   unsigned long long temp_config_num;
4558   char *converge_modifier_buf;
4559
4560   cfg = c;
4561   datacache = GNUNET_DATACACHE_create (cfg, "dhtcache");
4562   GNUNET_SERVER_add_handlers (server, plugin_handlers);
4563   GNUNET_SERVER_disconnect_notify (server, &handle_client_disconnect, NULL);
4564   coreAPI = GNUNET_CORE_connect (cfg,    /* Main configuration */
4565                                  1, /* queue size */
4566                                  GNUNET_TIME_UNIT_FOREVER_REL,
4567                                  NULL,  /* Closure passed to DHT functions */
4568                                  &core_init,    /* Call core_init once connected */
4569                                  &handle_core_connect,  /* Handle connects */
4570                                  &handle_core_disconnect,  /* remove peers on disconnects */
4571                                  NULL,  /* Do we care about "status" updates? */
4572                                  NULL,  /* Don't want notified about all incoming messages */
4573                                  GNUNET_NO,     /* For header only inbound notification */
4574                                  NULL,  /* Don't want notified about all outbound messages */
4575                                  GNUNET_NO,     /* For header only outbound notification */
4576                                  core_handlers);        /* Register these handlers */
4577
4578   if (coreAPI == NULL)
4579     return;
4580   transport_handle = GNUNET_TRANSPORT_connect(cfg,
4581                                               NULL, NULL, NULL, NULL, NULL);
4582   if (transport_handle != NULL)
4583     GNUNET_TRANSPORT_get_hello (transport_handle, &process_hello, NULL);
4584   else
4585     GNUNET_log(GNUNET_ERROR_TYPE_WARNING, 
4586                "Failed to connect to transport service!\n");
4587   block_context = GNUNET_BLOCK_context_create (cfg);
4588   lowest_bucket = MAX_BUCKETS - 1;
4589   forward_list.hashmap = GNUNET_CONTAINER_multihashmap_create(MAX_OUTSTANDING_FORWARDS / 10);
4590   forward_list.minHeap = GNUNET_CONTAINER_heap_create(GNUNET_CONTAINER_HEAP_ORDER_MIN);
4591   all_known_peers = GNUNET_CONTAINER_multihashmap_create(MAX_BUCKETS / 8);
4592   recent_find_peer_requests = GNUNET_CONTAINER_multihashmap_create(MAX_BUCKETS / 8);
4593   GNUNET_assert(all_known_peers != NULL);
4594   if (GNUNET_YES == GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht_testing", "mysql_logging"))
4595     {
4596       debug_routes = GNUNET_YES;
4597     }
4598
4599   if (GNUNET_YES ==
4600       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4601                                            "strict_kademlia"))
4602     {
4603       strict_kademlia = GNUNET_YES;
4604     }
4605
4606   if (GNUNET_YES ==
4607       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4608                                            "stop_on_closest"))
4609     {
4610       stop_on_closest = GNUNET_YES;
4611     }
4612
4613   if (GNUNET_YES ==
4614       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4615                                            "stop_found"))
4616     {
4617       stop_on_found = GNUNET_YES;
4618     }
4619
4620   if (GNUNET_YES ==
4621       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4622                                            "malicious_getter"))
4623     {
4624       malicious_getter = GNUNET_YES;
4625       if (GNUNET_NO == GNUNET_CONFIGURATION_get_value_number (cfg, "DHT",
4626                                             "MALICIOUS_GET_FREQUENCY",
4627                                             &malicious_get_frequency))
4628         malicious_get_frequency = DEFAULT_MALICIOUS_GET_FREQUENCY;
4629     }
4630
4631   if (GNUNET_YES != GNUNET_CONFIGURATION_get_value_number (cfg, "DHT",
4632                                         "MAX_HOPS",
4633                                         &max_hops))
4634     {
4635       max_hops = DEFAULT_MAX_HOPS;
4636     }
4637
4638   if (GNUNET_YES == GNUNET_CONFIGURATION_get_value_yesno (cfg, "DHT",
4639                                                           "USE_MAX_HOPS"))
4640     {
4641       use_max_hops = GNUNET_YES;
4642     }
4643
4644   if (GNUNET_YES ==
4645       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4646                                            "malicious_putter"))
4647     {
4648       malicious_putter = GNUNET_YES;
4649       if (GNUNET_NO == GNUNET_CONFIGURATION_get_value_number (cfg, "DHT",
4650                                             "MALICIOUS_PUT_FREQUENCY",
4651                                             &malicious_put_frequency))
4652         malicious_put_frequency = DEFAULT_MALICIOUS_PUT_FREQUENCY;
4653     }
4654
4655   dht_republish_frequency = GNUNET_DHT_DEFAULT_REPUBLISH_FREQUENCY;
4656   if (GNUNET_OK == GNUNET_CONFIGURATION_get_value_number(cfg, "DHT", "REPLICATION_FREQUENCY", &temp_config_num))
4657     {
4658       dht_republish_frequency = GNUNET_TIME_relative_multiply(GNUNET_TIME_UNIT_MINUTES, temp_config_num);
4659     }
4660
4661   if (GNUNET_YES ==
4662           GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4663                                                "malicious_dropper"))
4664     {
4665       malicious_dropper = GNUNET_YES;
4666     }
4667
4668   if (GNUNET_YES ==
4669         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4670                                              "republish"))
4671     do_republish = GNUNET_NO;
4672
4673   if (GNUNET_NO ==
4674         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4675                                              "do_find_peer"))
4676     {
4677       do_find_peer = GNUNET_NO;
4678     }
4679   else
4680     do_find_peer = GNUNET_YES;
4681
4682   if (GNUNET_YES ==
4683         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4684                                              "use_real_distance"))
4685     use_real_distance = GNUNET_YES;
4686
4687   if (GNUNET_YES ==
4688       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht_testing",
4689                                            "mysql_logging_extended"))
4690     {
4691       debug_routes = GNUNET_YES;
4692       debug_routes_extended = GNUNET_YES;
4693     }
4694
4695 #if DEBUG_DHT_ROUTING
4696   if (GNUNET_YES == debug_routes)
4697     {
4698       dhtlog_handle = GNUNET_DHTLOG_connect(cfg);
4699       if (dhtlog_handle == NULL)
4700         {
4701           GNUNET_log (GNUNET_ERROR_TYPE_WARNING,
4702                       "Could not connect to mysql logging server, logging will not happen!");
4703         }
4704     }
4705 #endif
4706
4707   converge_option = DHT_CONVERGE_SQUARE;
4708   if (GNUNET_YES ==
4709       GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4710                                            "converge_linear"))
4711     {
4712       converge_option = DHT_CONVERGE_LINEAR;
4713     }
4714   else if (GNUNET_YES ==
4715         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4716                                              "converge_exponential"))
4717     {
4718       converge_option = DHT_CONVERGE_EXPONENTIAL;
4719     }
4720   else if (GNUNET_YES ==
4721         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4722                                              "converge_random"))
4723     {
4724       converge_option = DHT_CONVERGE_RANDOM;
4725     }
4726   else if (GNUNET_YES ==
4727         GNUNET_CONFIGURATION_get_value_yesno(cfg, "dht",
4728                                              "converge_binary"))
4729     {
4730       converge_option = DHT_CONVERGE_BINARY;
4731     }
4732
4733   if (GNUNET_OK == GNUNET_CONFIGURATION_get_value_string(cfg, "dht_testing", "converge_modifier", &converge_modifier_buf))
4734     {
4735       if (1 != sscanf(converge_modifier_buf, "%f", &converge_modifier))
4736         {
4737           GNUNET_log(GNUNET_ERROR_TYPE_WARNING, "Failed to read decimal value for %s from `%s'\n", "CONVERGE_MODIFIER", converge_modifier_buf);
4738           converge_modifier = 0.0;
4739         }
4740       GNUNET_free(converge_modifier_buf);
4741     }
4742
4743   stats = GNUNET_STATISTICS_create("dht", cfg);
4744
4745   if (stats != NULL)
4746     {
4747       GNUNET_STATISTICS_set(stats, STAT_ROUTES, 0, GNUNET_NO);
4748       GNUNET_STATISTICS_set(stats, STAT_ROUTE_FORWARDS, 0, GNUNET_NO);
4749       GNUNET_STATISTICS_set(stats, STAT_ROUTE_FORWARDS_CLOSEST, 0, GNUNET_NO);
4750       GNUNET_STATISTICS_set(stats, STAT_RESULTS, 0, GNUNET_NO);
4751       GNUNET_STATISTICS_set(stats, STAT_RESULTS_TO_CLIENT, 0, GNUNET_NO);
4752       GNUNET_STATISTICS_set(stats, STAT_RESULT_FORWARDS, 0, GNUNET_NO);
4753       GNUNET_STATISTICS_set(stats, STAT_GETS, 0, GNUNET_NO);
4754       GNUNET_STATISTICS_set(stats, STAT_PUTS, 0, GNUNET_NO);
4755       GNUNET_STATISTICS_set(stats, STAT_PUTS_INSERTED, 0, GNUNET_NO);
4756       GNUNET_STATISTICS_set(stats, STAT_FIND_PEER, 0, GNUNET_NO);
4757       GNUNET_STATISTICS_set(stats, STAT_FIND_PEER_START, 0, GNUNET_NO);
4758       GNUNET_STATISTICS_set(stats, STAT_GET_START, 0, GNUNET_NO);
4759       GNUNET_STATISTICS_set(stats, STAT_PUT_START, 0, GNUNET_NO);
4760       GNUNET_STATISTICS_set(stats, STAT_FIND_PEER_REPLY, 0, GNUNET_NO);
4761       GNUNET_STATISTICS_set(stats, STAT_FIND_PEER_ANSWER, 0, GNUNET_NO);
4762       GNUNET_STATISTICS_set(stats, STAT_BLOOM_FIND_PEER, 0, GNUNET_NO);
4763       GNUNET_STATISTICS_set(stats, STAT_GET_REPLY, 0, GNUNET_NO);
4764       GNUNET_STATISTICS_set(stats, STAT_GET_RESPONSE_START, 0, GNUNET_NO);
4765       GNUNET_STATISTICS_set(stats, STAT_HELLOS_PROVIDED, 0, GNUNET_NO);
4766       GNUNET_STATISTICS_set(stats, STAT_DISCONNECTS, 0, GNUNET_NO);
4767     }
4768   /* FIXME: if there are no recent requests then these never get freed, but alternative is _annoying_! */
4769   recent.hashmap = GNUNET_CONTAINER_multihashmap_create(DHT_MAX_RECENT / 2);
4770   recent.minHeap = GNUNET_CONTAINER_heap_create(GNUNET_CONTAINER_HEAP_ORDER_MIN);
4771   if (GNUNET_YES == do_find_peer)
4772   {
4773     next_send_time.rel_value = DHT_MINIMUM_FIND_PEER_INTERVAL.rel_value +
4774                            GNUNET_CRYPTO_random_u64(GNUNET_CRYPTO_QUALITY_STRONG,
4775                                                     (DHT_MAXIMUM_FIND_PEER_INTERVAL.rel_value / 2) - DHT_MINIMUM_FIND_PEER_INTERVAL.rel_value);
4776     find_peer_context.start = GNUNET_TIME_absolute_get();
4777     GNUNET_SCHEDULER_add_delayed (next_send_time,
4778                                   &send_find_peer_message, &find_peer_context);
4779   }
4780
4781   /* Scheduled the task to clean up when shutdown is called */
4782   cleanup_task = GNUNET_SCHEDULER_add_delayed (GNUNET_TIME_UNIT_FOREVER_REL,
4783                                                &shutdown_task, NULL);
4784 }
4785
4786 /**
4787  * The main function for the dht service.
4788  *
4789  * @param argc number of arguments from the command line
4790  * @param argv command line arguments
4791  * @return 0 ok, 1 on error
4792  */
4793 int
4794 main (int argc, char *const *argv)
4795 {
4796   int ret;
4797
4798   ret = (GNUNET_OK ==
4799          GNUNET_SERVICE_run (argc,
4800                              argv,
4801                              "dht",
4802                              GNUNET_SERVICE_OPTION_NONE,
4803                              &run, NULL)) ? 0 : 1;
4804   GNUNET_assert (0 == GNUNET_CONTAINER_multihashmap_size(recent.hashmap));
4805   GNUNET_assert (0 == GNUNET_CONTAINER_heap_get_size(recent.minHeap));
4806   GNUNET_CONTAINER_multihashmap_destroy (recent_find_peer_requests);
4807   GNUNET_CONTAINER_multihashmap_destroy (recent.hashmap);
4808   GNUNET_CONTAINER_heap_destroy (recent.minHeap);
4809   return ret;
4810 }