Einführung in sperrenfreie Datenstrukturen mit Java-Beispielen

1. Einleitung

In diesem Tutorial erfahren Sie, was nicht blockierende Datenstrukturen sind und warum sie eine wichtige Alternative zu sperrenbasierten gleichzeitigen Datenstrukturen darstellen.

Zunächst werden einige Begriffe wie "frei von Hindernissen" , "ohne Sperren" und "ohne Wartezeiten" behandelt .

Zweitens werden wir uns die Grundbausteine ​​nicht blockierender Algorithmen wie CAS (Compare-and-Swap) ansehen .

Drittens werden wir uns die Implementierung einer sperrenfreien Warteschlange in Java ansehen und schließlich einen Ansatz skizzieren, wie Wartefreiheit erreicht werden kann .

2. Sperre versus Hunger

Betrachten wir zunächst den Unterschied zwischen einem blockierten und einem hungernden Faden.

Im obigen Bild erhält Thread 2 eine Sperre für die Datenstruktur. Wenn Thread 1 ebenfalls versucht, eine Sperre zu erhalten, muss er warten, bis Thread 2 die Sperre aufhebt. Es wird nicht fortgesetzt, bevor es die Sperre erhalten kann. Wenn wir Thread 2 anhalten, während er die Sperre hält, muss Thread 1 ewig warten.

Das nächste Bild zeigt den Fadenmangel:

Hier greift Thread 2 auf die Datenstruktur zu, erhält jedoch keine Sperre. Thread 1 versucht gleichzeitig, auf die Datenstruktur zuzugreifen, erkennt den gleichzeitigen Zugriff und kehrt sofort zurück, um den Thread darüber zu informieren, dass der Vorgang nicht abgeschlossen werden konnte (rot). Thread 1 versucht es dann erneut, bis der Vorgang erfolgreich abgeschlossen wurde (grün).

Der Vorteil dieses Ansatzes ist, dass wir kein Schloss benötigen. Es kann jedoch vorkommen, dass Thread 1 (oder andere Threads) mit hoher Häufigkeit auf die Datenstruktur zugreifen und Thread 1 eine große Anzahl von Versuchen benötigt, bis er schließlich erfolgreich ist. Wir nennen das Hunger.

Später werden wir sehen, wie der Vergleichs- und Auslagerungsvorgang einen nicht blockierenden Zugriff erzielt.

3. Arten von nicht blockierenden Datenstrukturen

Wir können zwischen drei Ebenen nicht blockierender Datenstrukturen unterscheiden.

3.1. Hindernisfrei

Die Freiheit der Behinderung ist die schwächste Form einer nicht blockierenden Datenstruktur. Hier benötigen wir nur, dass ein Thread garantiert fortgesetzt wird, wenn alle anderen Threads angehalten sind .

Genauer gesagt, ein Thread verhungert nicht weiter, wenn alle anderen Threads ausgesetzt sind. Dies unterscheidet sich von der Verwendung von Sperren in diesem Sinne: Wenn der Thread auf eine Sperre wartet und ein Thread, der die Sperre enthält, angehalten wird, wartet der wartende Thread für immer.

3.2. Lock-Free

Eine Datenstruktur bietet Sperrfreiheit, wenn zu irgendeinem Zeitpunkt mindestens ein Thread fortfahren kann . Alle anderen Fäden können hungern. Der Unterschied zur Hindernisfreiheit besteht darin, dass es mindestens einen nicht hungernden Faden gibt, auch wenn keine Fäden aufgehängt sind.

3.3. Wartefrei

Eine Datenstruktur ist wartungsfrei, wenn sie sperrenfrei ist und garantiert wird, dass jeder Thread nach einer endlichen Anzahl von Schritten fortfährt, dh Threads hungern nicht nach einer „unangemessen großen“ Anzahl von Schritten.

3.4. Zusammenfassung

Fassen wir diese Definitionen in grafischer Darstellung zusammen:

Der erste Teil des Bildes zeigt die Freiheit von Hindernissen, da Thread 1 (oberer Thread) fortgesetzt werden kann (grüner Pfeil), sobald wir die anderen Threads aufhängen (unten in gelb).

Der mittlere Teil zeigt die Sperrfreiheit. Mindestens Thread 1 kann fortschreiten, während andere hungern (roter Pfeil).

Der letzte Teil zeigt Wartefreiheit. Hier garantieren wir, dass Thread 1 nach einer bestimmten Hungerperiode (rote Pfeile) fortgesetzt werden kann (grüner Pfeil).

4. Nicht blockierende Grundelemente

In diesem Abschnitt werden drei grundlegende Operationen behandelt, mit denen wir sperrenfreie Operationen für Datenstrukturen erstellen können.

4.1. Vergleichen und tauschen

Eine der grundlegenden Operationen zur Vermeidung von Sperren ist die CAS-Operation ( Compare-and-Swap ) .

Die Idee des Vergleichens und Austauschs ist, dass eine Variable nur aktualisiert wird, wenn sie noch denselben Wert hat wie zu dem Zeitpunkt, als wir den Wert der Variablen aus dem Hauptspeicher abgerufen haben. CAS ist eine atomare Operation, was bedeutet, dass Abrufen und Aktualisieren zusammen eine einzige Operation sind :

Hier holen beide Threads den Wert 3 aus dem Hauptspeicher. Thread 2 ist erfolgreich (grün) und aktualisiert die Variable auf 8. Da der erste CAS von Thread 1 erwartet, dass der Wert immer noch 3 ist, schlägt der CAS fehl (rot). Daher ruft Thread 1 den Wert erneut ab und der zweite CAS ist erfolgreich.

Wichtig hierbei ist, dass CAS keine Sperre für die Datenstruktur erhält, sondern true zurückgibt , wenn die Aktualisierung erfolgreich war, andernfalls false .

Das folgende Codefragment beschreibt die Funktionsweise von CAS:

volatile int value; boolean cas(int expectedValue, int newValue) { if(value == expectedValue) { value = newValue; return true; } return false; }

We only update the value with the new value if it still has the expected value, otherwise, it returns false. The following code snippet shows how CAS can be called:

void testCas() { int v = value; int x = v + 1; while(!cas(v, x)) { v = value; x = v + 1; } }

We attempt to update our value until the CAS operation succeeds, that is, returns true.

However, it's possible that a thread gets stuck in starvation. That can happen if other threads perform a CAS on the same variable at the same time, so the operation will never succeed for a particular thread (or will take an unreasonable amount of time to succeed). Still, if the compare-and-swap fails, we know that another thread has succeeded, thus we also ensure global progress, as required for lock-freedom.

It's important to note that the hardware should support compare-and-swap, to make it a truly atomic operation without the use of locking.

Java provides an implementation of compare-and-swap in the class sun.misc.Unsafe. However, in most cases, we should not use this class directly, but Atomic variables instead.

Furthermore, compare-and-swap does not prevent the A-B-A problem. We'll look at that in the following section.

4.2. Load-Link/Store-Conditional

An alternative to compare-and-swap is load-link/store-conditional. Let's first revisit compare-and-swap. As we've seen before, CAS only updates the value if the value in the main memory is still the value we expect it to be.

However, CAS also succeeds if the value had changed, and, in the meantime, has changed back to its previous value.

The below image illustrates this situation:

Both, thread 1 and Thread 2 read the value of the variable, which is 3. Then Thread 2 performs a CAS, which succeeds in setting the variable to 8. Then again, Thread 2 performs a CAS to set the variable back to 3, which succeeds as well. Finally, Thread 1 performs a CAS, expecting the value 3, and succeeds as well, even though the value of our variable was modified twice in between.

This is called the A-B-A problem. This behavior might not be a problem depending on the use-case, of course. However, it might not be desired for others. Java provides an implementation of load-link/store-conditional with the AtomicStampedReference class.

4.3. Fetch and Add

Another alternative is fetch-and-add. This operation increments the variable in the main memory by a given value. Again, the important point is that the operation happens atomically, which means no other thread can interfere.

Java provides an implementation of fetch-and-add in its atomic classes. Examples are AtomicInteger.incrementAndGet(), which increments the value and returns the new value; and AtomicInteger.getAndIncrement(), which returns the old value and then increments the value.

5. Accessing a Linked Queue from Multiple Threads

To better understand the problem of two (or more) threads accessing a queue simultaneously, let's look at a linked queue and two threads trying to add an element concurrently.

The queue we'll look at is a doubly-linked FIFO queue where we add new elements after the last element (L) and the variable tail points to that last element:

To add a new element, the threads need to perform three steps: 1) create the new elements (N and M), with the pointer to the next element set to null; 2) have the reference to the previous element point to L and the reference to the next element of L point to N (M, respectively). 3) Have tail point to N (M, respectively):

What can go wrong if the two threads perform these steps simultaneously? If the steps in the above picture execute in the order ABCD or ACBD, L, as well as tail, will point to M. N will remain disconnected from the queue.

If the steps execute in the order ACDB, tail will point to N, while L will point to M, which will cause an inconsistency in the queue:

Of course, one way to solve this problem is to have one thread acquire a lock on the queue. The solution we'll look at in the following chapter will solve the problem with the help of a lock-free operation by using the CAS operation we've seen earlier.

6. A Non-Blocking Queue in Java

Let's look at a basic lock-free queue in Java. First, let's look at the class members and the constructor:

public class NonBlockingQueue { private final AtomicReference
    
      head, tail; private final AtomicInteger size; public NonBlockingQueue() { head = new AtomicReference(null); tail = new AtomicReference(null); size = new AtomicInteger(); size.set(0); } }
    

The important part is the declaration of the head and tail references as AtomicReferences, which ensures that any update on these references is an atomic operation. This data type in Java implements the necessary compare-and-swap operation.

Next, let's look at the implementation of the Node class:

private class Node { private volatile T value; private volatile Node next; private volatile Node previous; public Node(T value) { this.value = value; this.next = null; } // getters and setters }

Here, the important part is to declare the references to the previous and next node as volatile. This ensures that we update these references always in the main memory (thus are directly visible to all threads). The same for the actual node value.

6.1. Lock-Free add

Our lock-free add operation will make sure that we add the new element at the tail and won't be disconnected from the queue, even if multiple threads want to add a new element concurrently:

public void add(T element) { if (element == null) { throw new NullPointerException(); } Node node = new Node(element); Node currentTail; do { currentTail = tail.get(); node.setPrevious(currentTail); } while(!tail.compareAndSet(currentTail, node)); if(node.previous != null) { node.previous.next = node; } head.compareAndSet(null, node); // for inserting the first element size.incrementAndGet(); }

The essential part to pay attention to is the highlighted line. We attempt to add the new node to the queue until the CAS operation succeeds to update the tail, which must still be the same tail to which we appended the new node.

6.2. Lock-Free get

Similar to the add-operation, the lock-free get-operation will make sure that we return the last element and move the tail to the current position:

public T get() { if(head.get() == null) { throw new NoSuchElementException(); } Node currentHead; Node nextNode; do { currentHead = head.get(); nextNode = currentHead.getNext(); } while(!head.compareAndSet(currentHead, nextNode)); size.decrementAndGet(); return currentHead.getValue(); }

Again, the essential part to pay attention to is the highlighted line. The CAS operation ensures that we move the current head only if no other node has been removed in the meantime.

Java already provides an implementation of a non-blocking queue, the ConcurrentLinkedQueue. It's an implementation of the lock-free queue from M. Michael and L. Scott described in this paper. An interesting side-note here is that the Java documentation states that it's a wait-free queue, where it's actually lock-free. The Java 8 documentation correctly calls the implementation lock-free.

7. Wait-Free Queues

As we've seen, the above implementation is lock-free, however, not wait-free. The while loops in both the add and get method can potentially loop for a long time (or, though unlikely, forever) if there are many threads accessing our queue.

How can we achieve wait-freedom? The implementation of wait-free algorithms, in general, is quite tricky. We refer the interested reader to this paper, which describes a wait-free queue in detail. In this article, let's look at the basic idea of how we can approach a wait-free implementation of a queue.

A wait-free queue requires that every thread makes guaranteed progress (after a finite number of steps). In other words, the while loops in our add and get methods must succeed after a certain number of steps.

In order to achieve that, we assign a helper thread to every thread. If that helper thread succeeds to add an element to the queue, it will help the other thread to insert its element before inserting another element.

As the helper thread has a helper itself, and, down the whole list of threads, every thread has a helper, we can guarantee that a thread succeeds the insertion latest after every thread has done one insertion. The following figure illustrates the idea:

Of course, things become more complicated when we can add or remove threads dynamically.

8. Conclusion

In diesem Artikel haben wir die Grundlagen nicht blockierender Datenstrukturen gesehen. Wir haben die verschiedenen Ebenen und grundlegenden Operationen wie Vergleichen und Tauschen erklärt .

Anschließend haben wir uns eine grundlegende Implementierung einer sperrenfreien Warteschlange in Java angesehen. Schließlich haben wir die Idee skizziert, wie Wartefreiheit erreicht werden kann .

Der vollständige Quellcode für alle Beispiele in diesem Artikel ist auf GitHub verfügbar.