Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
gf_informatik:daten:processing:dictionaries_tutorial [2023-05-29 12:10] – [Variante 1: Tupel-Liste] hofgf_informatik:daten:processing:dictionaries_tutorial [2024-06-10 10:53] (aktuell) hof
Zeile 13: Zeile 13:
 Eine einfache Möglichkeit, in Python selber ein Dictionary zu implementieren, wäre eine Liste von Tupeln `(key, value)` zu speichern. Ein [[https://docs.python.org/3/tutorial/datastructures.html#tuples-and-sequences|Tupel]] ist nichts anderes als eine unveränderliche Liste und wird (fast) immer in runde Klammern eingebettet. Eine einfache Möglichkeit, in Python selber ein Dictionary zu implementieren, wäre eine Liste von Tupeln `(key, value)` zu speichern. Ein [[https://docs.python.org/3/tutorial/datastructures.html#tuples-and-sequences|Tupel]] ist nichts anderes als eine unveränderliche Liste und wird (fast) immer in runde Klammern eingebettet.
  
-Wenn wir möchten, dass unsere TupelListe die Python Syntax mit eckigen Klammern unterstützt, verwenden wir für die obigen Operationen die folgenden [[https://docs.python.org/3/reference/datamodel.html#specialnames|Special Method Names]]:+Wenn wir möchten, dass unsere Tupel-Liste die Python Syntax mit eckigen Klammern unterstützt, verwenden wir für die obigen Operationen die folgenden [[https://docs.python.org/3/reference/datamodel.html#specialnames|Special Method Names]]:
  
   * Lookup: ''[[https://docs.python.org/3/reference/datamodel.html#object.__getitem__|__getitem__(key)]]''   * Lookup: ''[[https://docs.python.org/3/reference/datamodel.html#object.__getitem__|__getitem__(key)]]''
Zeile 23: Zeile 23:
  
 <code python> <code python>
-class TupelList:+class TupleList:
     """A linear mapping type using list of (key, value) tuples."""     """A linear mapping type using list of (key, value) tuples."""
     def __init__(self):     def __init__(self):
Zeile 48: Zeile 48:
             # add new mapping             # add new mapping
             self._tuples.append((key, value))             self._tuples.append((key, value))
 +
 +    def __len__(self):
 +        return len(self._tuples)
  
     def __iter__(self):     def __iter__(self):
Zeile 53: Zeile 56:
             yield k             yield k
          
-map = TupelList()       # calls __init__+map = TupleList()       # calls __init__
 map['one'] = 42         # calls __setitem__ map['one'] = 42         # calls __setitem__
 map['two'] = 21 map['two'] = 21
Zeile 60: Zeile 63:
 map['one'] = 'foobar' map['one'] = 'foobar'
 print(map['one'])   print(map['one'])  
-</code +</code> 
->+ 
 #### Laufzeit-Messung #### Laufzeit-Messung
  
Zeile 84: Zeile 88:
         print(f"{map_type.__name__}: N={count:7}  Time per Op: {time_per_op:2.1e}")         print(f"{map_type.__name__}: N={count:7}  Time per Op: {time_per_op:2.1e}")
  
-perf_test(TupelList)+perf_test(TupleList)
 </code> </code>
  
 Output: Output:
 <code> <code>
-TupelList: N=   100  Time per Op: 5.4e-06 +TupleList: N=   100  Time per Op: 5.4e-06 
-TupelList: N=  1000  Time per Op: 2.9e-05 +TupleList: N=  1000  Time per Op: 2.9e-05 
-TupelList: N= 10000  Time per Op: 2.5e-04+TupleList: N= 10000  Time per Op: 2.5e-04
 </code> </code>
  
-Die Zeit, um eine einzelne Zuordnung abzurufen wächst also linear mit der Anzahl Zuordnungen - wir sagen auch, dass die Lookup-Operation eine Laufzeit-Komplexität von $\mathcal{O}(n)$ hat.+Die Zeit, um eine einzelne Zuordnung abzurufen wächst also linear mit der Anzahl Zuordnungen - wir sagen auch, dass die Lookup-Operation eine Laufzeit-Komplexität von $O(n)$ hat.
  
 #### Aufgabe 1 - Zeitmessung #### Aufgabe 1 - Zeitmessung
Zeile 104: Zeile 108:
  
 Falls die verwendeten Schlüssel miteinander vergleichbar sind, könnten wir die Tupel-Liste ja sortieren, der Zugriff sollte dementsprechend schneller sein. Mathematiker sprechen auch davon, dass eine [[wpde>Ordnungsrelation#Totalordnung|Totalordnung]] über die Schlüssel besteht. In Python ist dies der Fall, wenn wir für die Schlüssel Zahlen oder Strings (lexikographische Ordnung) verwenden, oder wenn die Schlüssel die [[https://docs.python.org/3/reference/datamodel.html#object.__lt__|Spezial-Funktionen für die Ordnung]] aufweisen. Falls die verwendeten Schlüssel miteinander vergleichbar sind, könnten wir die Tupel-Liste ja sortieren, der Zugriff sollte dementsprechend schneller sein. Mathematiker sprechen auch davon, dass eine [[wpde>Ordnungsrelation#Totalordnung|Totalordnung]] über die Schlüssel besteht. In Python ist dies der Fall, wenn wir für die Schlüssel Zahlen oder Strings (lexikographische Ordnung) verwenden, oder wenn die Schlüssel die [[https://docs.python.org/3/reference/datamodel.html#object.__lt__|Spezial-Funktionen für die Ordnung]] aufweisen.
 +
 #### Aufgabe 2 - Sortierte Tupel-Liste #### Aufgabe 2 - Sortierte Tupel-Liste
-Implementiere eine `class SortedTupelList` - Hinweise: +Implementiere eine `class SortedTupleList` - Hinweise: 
-  * Wir können von `TupelList` erben: `class SortedTupelList(TupelList)` um einigen Code wiederzuverwenden:+  * Wir können von `TupleList` erben: `class SortedTupleList(TupleList)` um einigen Code wiederzuverwenden:
     * Die private Methode `_finditem(key)` muss angepasst werden um die Binärsuche zu implementieren.     * Die private Methode `_finditem(key)` muss angepasst werden um die Binärsuche zu implementieren.
     * In `__getitem__` und `__delitem__` bleiben sich gleich und müssen nicht angepasst werden.     * In `__getitem__` und `__delitem__` bleiben sich gleich und müssen nicht angepasst werden.
Zeile 116: Zeile 121:
 ++++Lösung:| ++++Lösung:|
 <code python> <code python>
-class SortedTupelList(TupelList):+class SortedTupleList(TupleList):
     """A logarithmic mapping type using a sorted list of (key, value) tuples."""     """A logarithmic mapping type using a sorted list of (key, value) tuples."""
     # Override _finditem to use binary search     # Override _finditem to use binary search
Zeile 153: Zeile 158:
 Können wir noch schneller sein als Binärsuche? Können wir noch schneller sein als Binärsuche?
  
-Binärsuche ist sehr viel schneller als lineare Suche: jedes Mal wenn wir die Anzahl Einträge quadrieren vergrössert sich die Zeit um einen konstanten Faktor. Mann kann auch sagen, dass die Zeit pro Lookup mit dem Logarithmus der Anzahl Einträge wächst, oder dass Lookup die Komplexität $\mathcal{O}(log(n))$ hat.+Binärsuche ist sehr viel schneller als lineare Suche: jedes Malwenn wir die Anzahl Einträge verdoppeln, vergrössert sich die Zeit um einen konstanten Faktor. Alternative Betrachtung: werden die Anzahl Einträge quadriert, verdoppelt sich die Zeit. Mann kann auch sagen, dass die Zeit pro Lookup mit dem Logarithmus der Anzahl Einträge wächst, oder dass Lookup die Komplexität $O(log(n))$ hat.
  
-Allerdings wissen wir auch, dass der eigentliche Zugriff auf die zugrundeliegende Liste nicht von deren Grösse abhängt. Wenn wir den richtigen Index kennen würden, könnten wir den Zugriff in konstanter Zeit (oder $\mathcal{O}(1)$) schaffen. Dies wird mit einer Hashmap erreicht, indem der Index aus dem Key berechnet wird. Dazu wird für jedes Key-Objekt ein _Hashwert_ (eine Ganzzahl) berechnet. Aus dem Hashwert wird der Index in der Tupel-Liste mittels `hash % len(self.tuples)` berechnet.+#### Hashing 
 + 
 +Allerdings wissen wir auch, dass der eigentliche Zugriff auf die zugrundeliegende Liste nicht von deren Grösse abhängt. Wenn wir den richtigen Index kennen würden, könnten wir den Zugriff in konstanter Zeit (oder $O(1)$) schaffen. Dies wird mit einer Hashmap erreicht, indem der Index aus dem Key berechnet wird. Dazu wird für jedes Key-Objekt ein _Hashwert_ (eine Ganzzahl) berechnet. Aus dem Hashwert wird der Index in der Tupel-Liste mittels `hash % len(self.tuples)` berechnet.
  
 In Python können wir die eingebaute `hash(object)` Funktion verwenden, um für jedes Objekt einen Hashwert zu erhalten. Für die meisten Objekte ist dies ein Wert, der aus der internen Speicheradresse abgeleitet wird; für Typen, die `__eq__` implementieren, wie beispielsweise Strings, basiert der Hashwert auf dem Inhalt, so dass zwei unterschiedliche String-Instanzen mit dem gleichen Inhalt trotzdem den gleichen Hashwert produzieren. In Python können wir die eingebaute `hash(object)` Funktion verwenden, um für jedes Objekt einen Hashwert zu erhalten. Für die meisten Objekte ist dies ein Wert, der aus der internen Speicheradresse abgeleitet wird; für Typen, die `__eq__` implementieren, wie beispielsweise Strings, basiert der Hashwert auf dem Inhalt, so dass zwei unterschiedliche String-Instanzen mit dem gleichen Inhalt trotzdem den gleichen Hashwert produzieren.
  
-Natürlich kann es vorkommen, dass zwei unterschiedliche Keys denselben Hashwert produzieren, eine sogenannte Kollision. Wir müssen also beim Suchen sicherstellen, dass an der berechneten Adresse tatsächlich der gesuchte Key steht. Zur Behandlung von Kollisionen gibt es viele [[wp>Hash_table#Collision_resolution|Möglichkeiten]]:+#### Kollisionen
  
-  * Probing: In der Liste weiterzusuchen nach dem nächsten freien Slot. +Natürlich kann es vorkommen, dass zwei unterschiedliche Keys denselben Index ergeben, eine sogenannte KollisionWir müssen also beim Suchen sicherstellen, dass an der berechneten Adresse tatsächlich der gesuchte Key stehtZur Behandlung von Kollisionen gibt es viele [[wp>Hash_table#Collision_resolution|Möglichkeiten]]:
-    * ..aber dann müssen wir bei `Remove` sicherstellen, dass die folgenden Elemente des Clusters wieder nach vorne gerückt werden. +
-  * Chaining: Jedes Listenelement ist eine weitere Liste, die wir linear nach dem richtigen Key durchsuchen. +
-    * es bietet sich an, gleich eine `TupelList` von oben zu verwenden...+
  
-Um die Anzahl Kollisionen tief zu halten ist es wichtig, dass die Liste nie ganz gefüllt ist - die Tupel-Liste wird also bewusst grösser gewählt als nötig und bei Bedarf ein _rehash_ ausgeführt: alle Einträge werden in eine neue, grössere Liste umgefüllt, wobei die Hashwerte dann neu berechnet werden müssen. Je nach gewähltem Faktor für die tolerierbare Kollisionszahl benötigt die Hashmap also mehr Speicher, um damit eine bessere Laufzeit zu erreichen.+  * Probing: In der Liste weitersuchen nach dem nächsten freien Slot. 
 +    * Dies führt zu _Clustering_: an ungünstigen Stellen gibt es je nach _Fullness_ kaum mehr leere Slots. 
 +    * Bei `Remove` müssen wir sicherstellen, dass die folgenden Elemente des Clusters wieder nach vorne gerückt werden. 
 +  * Chaining: Jedes Listenelement ist eine weitere Liste, die wir nach dem richtigen Key durchsuchen. 
 +    * Solange die Kollisionsrate tief ist, kostet die lineare Suche kaum Zeit. 
 +    * Es bietet sich an, gleich eine `TupleList` von oben zu verwenden - oder `SortedTupleList`, wobei dies bei der zu erwartenden Länge nicht ins Gewicht fällt. 
 + 
 +Um die Anzahl Kollisionen tief zu halten ist es wichtig, dass die Liste nie ganz gefüllt ist - die Tupel-Liste wird also bewusst grösser gewählt als nötig und bei Bedarf ein _rehash_ ausgeführt: alle Einträge werden in eine neue, grössere Liste umgefüllt, wobei die Indices dann neu berechnet werden müssen. Je nach gewähltem Faktor für die tolerierbare Kollisionszahl benötigt die Hashmap also mehr Speicher, um damit eine bessere Laufzeit zu erreichen.
  
  
Zeile 173: Zeile 184:
  
 Hinweise: Hinweise:
-  * wir können `_tuples` und `__getitem__` wieder von `TupelList` erben.+  * wir können `_tuples` und `__getitem__` wieder von `TupleList` erben.
  
 <nodisp 1> <nodisp 1>
-++++Lösung:|+++++Mit linear Probing:|
 <code python> <code python>
-class HashMap(TupelList):+class HashMap(TupleList):
     def __init__(self):     def __init__(self):
-        self._tuples = [None] * 10  # The tuples (key, value).+        self._tuples = [None] * 10  # The entries (None where empty)
         self._len = 0  # The number of elements we contain.         self._len = 0  # The number of elements we contain.
    
     def __len__(self):     def __len__(self):
-        return len+        return self._len 
 +     
 +    def __iter__(self): 
 +        for entry in self._tuples: 
 +            if entry: 
 +                yield entry[0]
    
     def _hash(self, key):     def _hash(self, key):
Zeile 193: Zeile 209:
    
     def _finditem(self, key, raise_on_notfound=True):     def _finditem(self, key, raise_on_notfound=True):
-        """Returns (found, indexwhere found is True and index is the key's index it is present. Otherwise,  +        """Returns the index where key is found. Otherwise, either returns 
-           the index represents the index where key were to be inserted."""+           the index where key were to be inserted, or raises an error."""
         h = self._index(key)         h = self._index(key)
    
-        # Find the first matching or empty slot+        # Find the first matching or empty slot using linear probing.
         entry = self._tuples[h]         entry = self._tuples[h]
         while entry and entry[0] != key:         while entry and entry[0] != key:
Zeile 205: Zeile 221:
             raise KeyError(key)             raise KeyError(key)
         return h         return h
- +
     # Any mappings that were shifted due to collision need to be moved to the gap.     # Any mappings that were shifted due to collision need to be moved to the gap.
     def __delitem__(self, key):     def __delitem__(self, key):
Zeile 212: Zeile 228:
         self._tuples[index] = None         self._tuples[index] = None
         self._len -= 1         self._len -= 1
-        self.clean_up_after_delete(index)+        self._clean_up_after_delete(index)
         return v         return v
  
-    def clean_up_after_delete(self, index):+    def _clean_up_after_delete(self, index):
         """After a delete, we need to ensure that any subsequent entries that may have been          """After a delete, we need to ensure that any subsequent entries that may have been 
            moved due to collisions are moved forward until we find another gap."""            moved due to collisions are moved forward until we find another gap."""
Zeile 251: Zeile 267:
                     index = self._finditem(entry[0], raise_on_notfound=False)                     index = self._finditem(entry[0], raise_on_notfound=False)
                     self._tuples[index] = entry                     self._tuples[index] = entry
 +</code>
 +++++
 +
 +++++Mit Chaining:|
 +<code python>
 +class ChainingHashMap:
 +    """A mapping that employs a TupleList in each slot to chain colliding entries."""
 +    def __init__(self):
 +        self._tuples = [None] * 10  # The entries, either None or a linear TupleList.
 +        self._len = 0  # The number of elements we contain.
 + 
 +    def __len__(self):
 +        return self._len
 +
 +    def __iter__(self):
 +        for entry in self._tuples:
 +            if entry:
 +                yield from entry
 +
 +    def _hash(self, key):
 +        return hash(key)  # Use Python's built-in hash function.
 +    
 +    def _finditem(self, key, raise_on_notfound=True):
 +        """Returns the TupleList at the key's slot or raises an error.
 +           If raise_on_notfound is False, an empty TupleList is inserted and returned."""
 +        h = self._hash(key) % len(self._tuples)
 + 
 +        # Find the first matching or empty slot
 +        entry = self._tuples[h]
 +        if entry is None:
 +            if raise_on_notfound:
 +                raise KeyError(key)
 +            # create a new sublist
 +            entry = TupleList()
 +            self._tuples[h] = entry
 +        return entry
 + 
 +    def __getitem__(self, key):
 +        return self._finditem(key)[key]
 +
 +    def __delitem__(self, key):
 +        return self._finditem(key).__delitem__(key)
 +
 +    def __setitem__(self, key, value):
 +        entry = self._finditem(key, raise_on_notfound=False)
 +        is_addition = key not in entry
 +        entry[key] = value
 +
 +        if is_addition:
 +            self._len += 1
 +            self._attempt_rehash()
 + 
 +    def _attempt_rehash(self):
 +        """Rehashes the entire map if fullness reaches 50%. The capacity is doubled."""
 +        # Rehash if fullness is more than 50%
 +        if self._len > len(self._tuples) * 0.5:
 +            old_tuples = self._tuples
 +    
 +            # Re-insert all elements into twice as large list
 +            self._tuples = [None] * (len(old_tuples) * 2)  # Double the size!
 +            for entry in old_tuples:
 +                if entry:
 +                    for key in entry:
 +                        self._finditem(key, raise_on_notfound=False)[key] = entry[key]
 </code> </code>
 ++++ ++++
 </nodisp> </nodisp>
  • gf_informatik/daten/processing/dictionaries_tutorial.1685362217.txt.gz
  • Zuletzt geändert: 2023-05-29 12:10
  • von hof