fix missing synchronization in atomic store on i386 and x86_64
authorRich Felker <dalias@aerifal.cx>
Tue, 28 Jul 2015 18:40:18 +0000 (18:40 +0000)
committerRich Felker <dalias@aerifal.cx>
Tue, 28 Jul 2015 18:40:18 +0000 (18:40 +0000)
despite being strongly ordered, the x86 memory model does not preclude
reordering of loads across earlier stores. while a plain store
suffices as a release barrier, we actually need a full barrier, since
users of a_store subsequently load a waiter count to determine whether
to issue a futex wait, and using a stale count will result in soft
(fail-to-wake) deadlocks. these deadlocks were observed in malloc and
possible with stdio locks and other libc-internal locking.

on i386, an atomic operation on the caller's stack is used as the
barrier rather than performing the store itself using xchg; this
avoids the need to read the cache line on which the store is being
performed. mfence is used on x86_64 where it's always available, and
could be used on i386 with the appropriate cpu model checks if it's
shown to perform better.

arch/i386/atomic.h
arch/x32/atomic.h
arch/x86_64/atomic.h

index 95fecbdcc51eb7faee9fff264388a3f7bc6d8bcd..25441df234410e6120bff1d60c533e353f53149f 100644 (file)
@@ -88,7 +88,7 @@ static inline void a_dec(volatile int *x)
 
 static inline void a_store(volatile int *p, int x)
 {
-       __asm__( "movl %1, %0" : "=m"(*p) : "r"(x) : "memory" );
+       __asm__( "movl %1, %0 ; lock ; orl $0,(%%esp)" : "=m"(*p) : "r"(x) : "memory" );
 }
 
 static inline void a_spin()
index b2014cc0da38bdb14dd605a0a32ac48cff181a95..2ab1f7a26241a20179051923809d02b6b545af54 100644 (file)
@@ -83,7 +83,7 @@ static inline void a_dec(volatile int *x)
 
 static inline void a_store(volatile int *p, int x)
 {
-       __asm__( "mov %1, %0" : "=m"(*p) : "r"(x) : "memory" );
+       __asm__( "mov %1, %0 ; mfence" : "=m"(*p) : "r"(x) : "memory" );
 }
 
 static inline void a_spin()
index b2014cc0da38bdb14dd605a0a32ac48cff181a95..2ab1f7a26241a20179051923809d02b6b545af54 100644 (file)
@@ -83,7 +83,7 @@ static inline void a_dec(volatile int *x)
 
 static inline void a_store(volatile int *p, int x)
 {
-       __asm__( "mov %1, %0" : "=m"(*p) : "r"(x) : "memory" );
+       __asm__( "mov %1, %0 ; mfence" : "=m"(*p) : "r"(x) : "memory" );
 }
 
 static inline void a_spin()