Vor einiger Zeit hatte ich eine regelbare DC-Last gezeigt, welche versprach bis zu 150W in Wärme umwandeln zu können – zumindest für Spannungen unter 36V. Da ich grade höhere Spannungen und Leistungen testen muss, wollte ich mal nach größeren Modellen suchen. Offenbar hat der Hersteller in den letzten Jahren nachgelegt und das System nun modular gestaltet. Es sind weiterhin nur 150W möglich, man kann aber weitere 150W-Module dazu klemmen und so – offiziell – bis zu 1200W erreichen. Schauen wir mal, ob das Kit hält was es verspricht.
Alle Produkte wurden selbst gekauft und bezahlt. In der Videobeschreibung sind Affiliate-Links zu Produkten, welche im Video zu sehen sind. Durch Nutzung dieser Links erkennt der Händler, dass Ihr über meine Seite zu ihnen gefunden habt. Ich werde prozentual an hierüber erzielten Umsätzen beteiligt, die Preise ändern sich hierdurch für Käufer*innen gegenüber einem direkten Einkauf auf der Plattform nicht. Tipp: Vergleicht vor einem Kauf die Preise – einige Händler erhöhen diese wenn sie merken, dass diese in Videos verlinkt wurden. Bitte beachtet die geäußerten Bedenken zur Produktsicherheit.
Eine verbreitete Methode um Lasten zu schalten sind Relais, da deren Spulen aber meist mehr verbrauchen, als man dem GPIO einem µCs zumuten sollte, benötigt man davor noch etwas Elektronik zur Ansteuerung. Um diese nicht selbst bauen zu müssen gibt es diverse fertige Module, welche Relais und Schaltung kombinieren. Da ich in der Vergangenheit mit einigen davon Probleme hatte, wenn der µC, wie z.B. STM32 oder ESP32, mit 3.3V arbeitet, schaue ich heute diverse dieser Relais durch und prüfe, wie diese sich in einem solchen Aufbau verhalten.
(Diese Geschichte hatte ich mWn schon mal gepostet, aber offenbar nie hier im Blog. Ah well.)
Nach einem kleinen Ausrutscher auf einem berüchtigten Auktionshaus hatte ich ein neues Gerät in der Hand, welches $vieldaten machen kann. Um die volle Leistung abzurufen bräuchte es mindestens einen Gigabit-Anschluss. Die Herausforderung: Weit weg von bestehender Infrastruktur. Sicher, die Strecke kann ein langes Patchkabel überbrücken, aber irgendwo knallt ja immer irgendwer die Tür zu – nicht hilfreich für die Lebensdauer einer solchen Wäscheleine.
Netzwerkkabel mit KnotenGequetschte StelleDurch mechanische Beanspruchung weggescheuerte Isolierung
Also einen Tag hingesetzt, eine Rolle halbwegs dünnes Verlegekabel aus dem Lager gegriffen und irgendwie versucht von A nach B zu bekommen. Am Ende ging es über mehrere Kabeltrassen, durch Wände und viel zu überfüllte Rohre zwischen Patchpanel und einer neuen Netzwerkdose. Knapp 28m stand schlussendlich auf dem Zettel. Der Kabeltester bestätigt: Alles Gut.
Moment, was?
Also: Gerät dran, starten, konfigurieren und … warum hab ich nur 100MBit/s? Seltsam. Also mal schnell die Patchkabel durchgetauscht – immer noch nichts. Laptop dran? Gigabit. Ist das Gerät kaputt? Sollte nicht, aber zur Sicherheit nochmal Gerät direkt an den Laptop und: Gigabit. Laut anzeige zwar Half Duplex, aber das verbuche ich mal unter „Anzeigefehler“.
PC meldet 1G Half DuplexGerät meldet Fast Ethernet (100MBit/s)
Fassen wir zusammen: Meine Strecke ist laut Kabeltest OK, mit dem Laptop bekomme ich Gigabit, mit dem Gerät aber nur 100MBit/s. Das Gerät scheint aber auch keine Fehlfunktion zu haben und funktioniert direkt mit dem Laptop verbunden fehlerfrei.
Ich hasse dieses Kupferzeugs -.-
Auf die Suche
So komm ich nicht weiter, also ein besseres Messgerät geliehen, ich nenne es liebevoll „Dienstleisterfolterapparat“, denn neben Durchmessen der einzelnen Leitungen prüft dieses auch auf Dämpfung, Übersprechen & Co – also Alles das, was knallt, wenn irgendwo Irgendwer eine Leitung zwischendrin nicht fachgerecht „repariert“ oder behandelt hat. Nein, Isoband eigent sich nicht um ein versehentlich durchgeschnittenes Netzwerkkabel wieder zu richten. Und siehe da: Die Signalqualität auf dem Paar 3+6 passt nicht.
Mögliche GeschwindigkeitenErgebnis des TestsFeldermeldung „Verteilte Kabelfehler“
OK, nicht gut. Und solche Fehler lassen sich leider – im Gegensatz zu Kurzschlüssen oder falsch geklemmten Leitern – auch nicht sinnvoll lokalisieren. Aber vielleicht hab ich ja irgendwo einen Fehler an den Enden gemacht. Also: Ab mit den Dosen, Neue drauf. Nope, weiter 3+6. Stochern wir mal rum, denn die Paare 3+6 und 1+2 sind je nach genutztem Farbkonzept miteinander getauscht. Technisch irrelevent, so lange man beide Seiten gleich macht, aber wenn wir die tauschen … jepp, der Fehler wandert und ist nun auf 1+2. Ich kann also sehr sicher sagen, dass das in diesem Fall grüne Adernpaar einen Fehler hat. Mist.
Ergebnis des Tests. Signalfehler auf Paar 1+2
Vollkabeleingrenzung
Das Kabel ist also kaputt. Eventuell zu stark dran gezogen? Was geknickt? Hilft alles nichts, die Strecke ist für die Tonne. Oder zumindest etwas. Auf halber Strecke liegt eine gut zugängliche Stelle, von der aus es jeweils in viel zu überfüllten Kabelführungen verschwindet. Zum Verteiler kann man mit etwas Angeln vielleicht noch was werfen, zur Endgerät bin ich mir nicht sicher, ob die bröckelnden Leerrohre einen Kabeltausch noch überleben. Augen zu, durchgeknipst und in Richtung Verteiler eine Buchse draufgesetzt.
Keystone-Buchse auf KabelendeErgebnis des Tests
Bingo! Da ist der Fehler! Ärgerlich, aber machbar. Wobei es mich ehrlich gesagt wundert, denn die Rolle stand beim Zeihen am Verteiler, diese Strecke wurde also am wenigsten Belastet. Aber immerhin heißt das ja, dass die andere Richtung OK ist. Oder? ODER?
Ergebnis des Tests
Was zum.
Zwei Richtungen, beide Fehlerhaft. Langsam Zweifel ich an meinem Verstand. Zur Sicherheit mal eine andere Strecke im Gebäude gemessen – ja, das Messgerät kann auch Haken verteilen. Also muss da wirklich was kaputt sein. Aber wie? Einen Kabelbruch lass ich mir ja gefallen, aber zwei? Je auf dem gleichen Aderpaar? Während die Anderen jeweils nicht betroffen sind? I doubt it.
Die Rolle steht noch am Verteiler, also werfen wir mal einen Blick auf das Etikett.
Kabel auf RolleBeschriftungen auf Rolle
CAT6. S/FTP. PiMF. Soweit gut. Das CCA macht zwar ein paar Falten auf der Stirn, aber auf so kurzer Strecke? Meh, sollte trotzdem funktionieren. Andererseits gehen mir auch die Ideen aus. Schnell den Rest von der Rolle geschnappt und einfach mal Buchsen drauf – außer Abrollen hat das also keine mechanische Belastung gesehen. WOLLT IHR MICH VERSCHEIẞERN? Auch das frische Stück Kabel direkt von der Rolle hat auf dem selben Aderpaar einen Fehler.
Ob das jetzt ein Herstellfehler oder Altersschwäche ist kann ich nicht mehr nachvollziehen. Die Rolle lag knapp 6 Jahre in der Ecke. Vermutlich ist es mir bisher nicht aufgefallen, da ich diese nur für Steuerungen genutzt habe, die weniger Anspruchsvoll sind. Tatsächlich habe ich beim Prüfen der Logs aber feststellen können, dass eine 1-Wire-Strecke mit diesem Kabel gebaut wurde, welche tatsächlich schon in der Vergangenheit durch hohe Fehlerraten auffällig geworden ist. Da die Anlage in der Nähe von elektrischen Großverbrauchern ist, hatte ich die Fehler immer darauf geschoben, aber es ist tatsächlich auch bei der installation genau dieses Aderpaar betroffen.
Nun darf ich also die komplette Strecke einmal neu ziehen. Oder es zumindest versuchen. Diesmal wird die Rolle aber vorab getestet, denn offenbar kann man sich nicht mal drauf verlassen, dass ein Kabel funktionsfähig auf einer Rolle ist.
Als Abwechslung zur Datenautobahn geht es heute dann mal um die Wasserautobahn. An ein paar Stellen möchte ich irgendwann™ mal Änderungen an Heizung und Regenwasserinstallationen durchführen. Auf dem Papier klingt das gut, bevor ich mich da dran wage teste ich das ganze aber lieber „trocken“ auf der Werkbank um mal zu schauen, wie schwer das ganze ist. Fassen wir mal zusammen was es gibt, was ich bei meinen Versuchen gelernt habe und wie meine Erfolgsquote war.
Inhalt
00:00 Vorwort
02:52 Materialien
06:50 Rohrgrößen
08:21 Kontaktkorrosion
10:14 Rohre trennen (Übersicht)
13:04 Rohre verbinden (Übersicht)
20:36 Trennen: Säge
21:29 Trennen: Rohrschneider
23:15 Verbinden: Klemmfitting
25:42 Verbinden: Pressfitting
28:11 Verbinden: Wiederholungen
30:24 Drucktest: Hauswasserwerk (3 Bar)
34:36 Drucktest: Abdrückpumpe (10 Bar)
35:32 Fazit
Fehler und Ergänzungen
–:– Alle Installationen sind auf der Werkbank oder in getrennten Netzen. Installationen in Trinkwassernetzen dürfen nicht selbst durchgeführt werden
–:– Bitte beachtet die Kommentare für Hinweise zu Dingen, die ich falsch gemacht habe
01:28 …oder z.B. bei der Dusche als Aerosol einatmen können…
22:47 Wobei es noch immer schneller als die Säge war
Wer diese Nachricht sieht hat meist etwas Arbeit vor sich. Aber was, wenn der Speicher eigentlich gar nicht so voll sein sollte? Nun, dann muss man auf die Jagd gehen.
Vorab: Ich werde mich hier auf Befehle für die Kommandozeile beschränken, da sich diese sowohl auf Desktop-Rechnern mit GUI als auch Servern nutzen lassen. Auch gehe ich von einem „einfachen“ Dateisystem ohne Kompression, Snapshots oder Subvolumes aus.
Fall 1: Es ist voll – Belegung analysieren.
Die einfachste Variante: Irgendwas belegt tatsächlich den Platz. Dies ist der Fall, wenn die Ausgabe von du -shx / bzw. du -shx /dein/ordner tatsächlich etwa dem „Used“-Wert aus df -h / bzw. df -h /dein/ordner entspricht.
Für diesen Fall gibt es viele Tools, welche bei der Analyse helfen können, z.B. ncdu, welches sich in fast allen Paket-Managern finden sollte. Mit ncdu -x / bzw. ncdu -x /dein/ordner ermittelt es die Dateigrößen und stellt diese in einer TUI dar. Über die Pfeiltasten kann man zwischen den Dateien und Ordnern wechseln, mit Enter kommt man in den Order bzw. bei .. wieder zurück und mit d kann man die Datei direkt löschen.
Fall 2: Es ist noch voll – Gelöschte Dateien
Wenn der Usage-Wert aus df größer als jener aus du ist, dann können gelöschte Dateien im Spiel sein. Zumindest, wenn diese noch geöffnet ist. Nehmen wir ein Beispiel: Wir haben eine 4GB ISO-Datei im Ordner, diese binden wir in eine VM ein. Etwas später stellen wir Fest, dass wir die Datei ja eigentlich nicht mehr brauchen und löschen sie aus dem Ordner. Nun sollte man erwarten, dass im Ordner wieder 4GB frei sind, oder? Sind sie nicht, denn wir haben die ISO ja noch in der VM eingebunden, daher hat Linux nur vorgemerkt, dass die Datei gelöscht werden soll, gibt den Speicher aber erst wieder frei, wenn diese nirgendwo mehr in Verwendung ist. Ähnliches kann auch beim Überschreiben auftreten, da Linux die vorherige Version verfügbar hält, so lange diese von einem Prozess genutzt wird.
Die einfachste Möglichkeit solche Situationen zu beheben ist der Holzhammer: Ein Reboot beendet alle Prozesse, entsprechend ist auch nichts mehr geöffnet und alles Markierte verschwindet tatsächlich. Wer etwas feinfühliger sein möchte kann schauen, welcher Prozess derzeit bereits gelöschte Dateien verwendet. Die volle Liste gibt es mit . Etwas übersichtlicher macht es der Befehl *lufthol*
Dieser Zeigt jede gelöschte, aber noch geöffnete Datei 1×, die Größten finden sich ganz oben in der Ausgabe. Hier sind ggf. auch andere Speicherbereiche wie memfs oder /dev/shm/… mit aufgelistet, welche für die Dateisysteme nicht relevant sind.
Hier hat z.B. ein qemu-Prozess mit der PID 32387 einen für uns nicht relevanten memfd mit 32 Gigabyte. Ein systemd-Teil mit der PID 2448 hält wiederum 13MB durch die Datei /usr/lib/udev/hwdb.bin in Beschlag, welche zwischenzeitlich überschrieben wurden. Mit diesen Informationen kann man die zugehörige Software dann gezielt beenden bzw. neu starten um den Speicher wieder freizugeben.
Fall 3: Es ist doch voll – Mount in vollem Ordner
Ein etwas anderer Fall, bei dem sich df und du unterscheiden, kann auftreten, wenn man mit mehreren Partitionen oder Datenträgern arbeitet. Auch hier wieder ein Beispiel: Wir haben eine Festplatte mit installiertem Linux. Unter /mnt/iso/ speichern wir jetzt 5 verschiedene Linux-ISOs mit je ca. 2GB, belegen also 10GB. Nun merken wir, dass wir mehr Platz benötigen, bereiten eine zusätzliche Festplatte vor und hängen diese unter /mnt/iso/ ein. Nun sind die ursprünglichen Dateien ja noch unter /mnt/iso/ gespeichert, da dort aber ein anderes Dateisystem eingehangen ist, wird der Pfad bei du (oder auch ncdu) ignoriert. Ähnliches habe ich auch häufiger bei der Verwendung mäßig stabiler Software wie Docker entdeckt – dies „vergisst“ bei einigen Container-Neustarts einige mounts mitzunehmen und schreibt die Daten dann nicht auf die Datenpartition, sondern, für das Hostsystem erst mal unsichtbar, auf den Datenspeicher des Root-Dateisystems. Um dies zu analysieren verwende ich gerne einen bind-mount, diese nehmen keine anderen Dateisysteme mit und schaffen so eine Stelle, um mit ncdu das komplette Dateisystem zu erfassen.
mkdir /tmp/bind
mount -o bind / /tmp/bind
ncdu -x /tmp/bind
# Nachdem man fertig ist
umount /tmp/bind
rmdir /tmp/bind
Fall 4: Es ist voll kaputt – Dateisystemfehler
Natürlich kann es auch immer mal vorkommen, dass das Dateisystem tatsächlich einen Fehler hat und daher den freien Speicher falsch berechnet. Hier hilft dann oft (vorzugsweise von einem Live-System) die jeweiligen Scan- und Reparaturtools zu starten. Meist sollte ein fsck /dev/yourdevice das passende Programm auswählen.
Professionelle Server haben oft ein Out-of-band-management um auch bei Problemen mit Betriebssystem oder Bootkonfiguration Reparaturen aus der Ferne durchführen zu können. Bei „normalen“ PC oder Einplatinencomputern findet man solche Möglichkeiten eher selten. In diese Lücke schlagen KVM-IP-Systeme, welche sich gegenüber dem gesteuerten System als Bildschirm und Tastatur ausgeben und über Netzwerk bereitstellen. Da der Markt für solches „Spielzeug“ bisher eher klein war kostete eine solche Nachrüstung bisher eher viel Geld. Inzwischen gibt es einige Produkte, welche eher im DIY-Preissegment liegen. Eine dieser neueren, günstigen Lösungen ist der NanoKVM aus China. Kann einige Problemfälle lösen, die Sache hat aber einen Haken.
Inhalt
00:00 Fernsteuermöglichkeiten
01:26 Der NanoKVM
08:05 Daten des Herstellers
13:21 Ersteinrichtung
18:17 Funktionen der WebUI
28:43 Fazit
Fehler und Ergänzungen
01:40 Es gibt viele weitere Modelle des Herstellers.
02:30 Dies wurde möglicherweise in neueren Firmware-Versionen auf Opt-In umgestellt
Das Gerät wurde selbst gekauft und bezahlt. In der Videobeschreibung sind Affiliate-Links zu Produkten, welche im Video zu sehen sind. Durch Nutzung dieser Links erkennt der Händler, dass Ihr über meine Seite zu ihnen gefunden habt. Ich werde prozentual an hierüber erzielten Umsätzen beteiligt, die Preise ändern sich hierdurch für Käufer*innen gegenüber einem direkten Einkauf auf der Plattform nicht. Tipp: Vergleicht vor einem Kauf die Preise – einige Händler erhöhen diese wenn sie merken, dass diese in Videos verlinkt wurden. Bitte beachtet die geäußerten Bedenken zur Produktsicherheit.
Hat man Windows vor $langerzeit installiert, wird das System vermutlich einen MBR und BIOS-Boot nutzen. Auch wenn diese Methode meist noch funktioniert, ist sie doch nicht mehr ganz zeitgemäß und kann in einigen Situationen dazu führen, dass man plötzlich etwas Bootfunktionalität vermisst. Insbesondere mit virtuellen Systemen, oder bei Dual-Boot, ist EFI oft flexibler und GPT im Zweifel resilienter gegen Störungen. Glücklicherweise kann man solche Systeme oft mit ein paar Befehlen, etwas Geduld und vielen gedrückten Daumen erfolgreich umwandeln, ohne dass eine Neuinstallation oder größere Kopiervorgänge notwendig sind.
Vorbedingungen
Um erfolgreich auf das GPT-Partitionsschema und einen EFI-Bootloader umzustellen, müssen einige Vorbedingungen erfüllt sein. Zuallererst muss die drunterliegende Hardware bzw. der Hypervisor natürlich das Booten per EFI unterstützen. Für Hardware sollte alles aus den letzten 10+ Jahren funktionieren. Bei VMs muss ggf. in der Konfiguration der Boot-Modus umgestellt werden.
Screenshot VMWare, VM-Optionen. Startoptionen→Firmware mit der Auswahl zwischen BIOS und EFI
Weiterhin wird etwas Platz benötigt. Etwa 150MB reichen aus. Bei VMs kann man z.B. die virtuelle Festplatte vergrößern, andernfalls kann man in Windows die Datenträgerverwaltung bemühen und die letzte Partition des Datenträgers verkleinern. Für Profis: Zumindest ein paar Byte müssen am ENDE des Datenträgers frei sein.
Screenshot Windows Datenträgerverwaltung. 60GB Datenträger mit 350MB NTFS System-reserviert und 59.66GB NTFS C:. Daneben Dialog „Verkleinern von Laufwerk C:“ mit Vorschlag um 18214MB zu verkleinern.
Verschlüsselungen wie Bitlocker habe ich nicht genutzt, im Zweifel sollte man diese für die Dauer der Umstellung abschalten. Ein Boot-Stick des Betriebssystem (bei aktuellen Systemen als Download, teils über Media Creation Tool) sollte zur Hand sein. Ich nutze Ventoy mit den zugehörigen ISOs.
Zu guter Letzt sollte man natürlich ein getestetes(!) Backup besitzen. Auch wenn die Methode bei mir bisher zuverlässig funktionierte, kann immer etwas schief gehen. Jedes System ist anders.
Part 1: Partitionsschema umwandeln
Erster Schritt ist die Umwandlung von MBR zu GPT. Letzteres ist deutlich neuer, hat Mechanismen um Beschädigungen zu erkennen/reparieren, kann mit größeren Datenträgern umgehen (MBR max. 2TB) und kann mehr als 4 (primäre) Partitionen pro Datenträger verwalten. Um keine Konflikte mit dem eigentlichen System zu provozieren nutze ich ein Linux-Livesystem, namentlich GParted. Technisch sollte auch das Windows-Tool mbr2gpt.exe funktionieren, dieses hat jedoch einige Einschränkungen.
Als Erstes startet man also GParted. Die Standardeinstellungen sind meist OK, bestenfalls das Tastaturlayout sollte man auf QWERTZ ändern, falls man mit QWERTY nicht klar kommt. Die GUI kann direkt über den „Block“ oben rechts geschlossen werden, stattdessen benötigen wir das Terminal. Hier macht man sich über „sudo su“ zum Systemverwalter. Wir wissen ja was wir tun und haben ein Backup – oder so. Mit lsblk kann man die aktuellen Datenträger und Partitionen raussuchen. Hier notiert man sich den Namen der Festplatte/SSD (Type: disk), welche man umwandeln möchte. Für S-ATA ist dies meist „sda„, bei NVME „nvme0n1„.
Nun geht es an die eigentliche Umwandlung. Mit „gdisk /dev/sda“ (name passend Tauschen) öffnet man das Gerät im GPT-Editor. Dieser sollte nun energisch darauf Hinweisen, dass er Magie anwendet und keine Gewähr für fehlende Körperteile oder Daten übernimmt:
Found invalid GPT and valid MBR; converting MBR to GPT format in memory. THIS OPERATION IS POTENTIALLY DESTRUCTIVE! Exit by typing 'q' if you don't want to convert your MBR partitions to GPT format!
Wichtig: Es darf keine Warnung bzgl. überlappenden Partitionen geben.
Warning! Secondary partition table overlaps the last partition by 33 blocks!
You will need to delete this partition or resize it in another utility.
Ist dies der Fall, steht am Ende des Datenträgers nicht genug Speicher zur Verfügung, es wurde also wohl nicht, wie oben beschrieben, passend verkleinert. Eventuell kann man in diesem Fall über die GParted-GUI die dortige Partition nochmal verkleinern bzw. verschieben und es erneut versuchen.
Alles OK? Dann haben wir nichts weiter zu tun. Gdisk hat bereits alle MBR-Partitionen in das GPT-Equivalent umgerechnet. Wer möchte kann mit „p“ einen Blick drauf werfen. Mit „w“ wird – nach Bestätigung – die neue Partitionstabelle auf den Datenträger geschrieben. Der GPT-Part ist somit abgeschlossen.
Part 2: EFI-Boot
Für UEFI benötigen wir jedoch noch etwas: Eine spezielle Boot-Partition. Diese ist vom Typ FAT32 und sollte >=100MB groß sein. Ich nutze für Umstellungen meist 128MB, Standard für Neusysteme ist bei den meisten Betriebssystemen etwa 512MB. Da GParted noch gebootet ist, kann man diese z.B. über die GParted-GUI an einer freien Stelle passend anlegen – ist meist übersichtlicher als auf der Konsole freie Blöcke zu finden. Windows lässt gerne mal ein paar Sektoren zwischendrin frei und verwirrt die Automatiken von fdisk & co. Also: In der GUI einen freien Block suchen, Rechtsklick→New, ggf. bei „New Size“ die gewünschte Größe anpassen und als File System „FAT32“ wählen. Ich schiebe die Partition meist noch oben nach rechts und vergrößere die Partition des Betriebssystems um eventuelle Lücken zu füllen. Über den grünen Haken schreibt man die Änderungen auf den Datenträger. Nach Abschluss des Vorgangs muss die Partition noch als „EFI System Partition“ markiert werden. Dazu macht man einen Rechtsklick auf die frische FAT32-Partition und wählt unter „Manage Flags“ die Einträge „esp“ und „boot„. Der Datenträger ist somit für EFI vorbereitet und GParted kann heruntergefahren werden.
Screenshot GParted, Datenträger sda mit 127GiB. sda1; RECOVERY, ntfs; 3.02/512MiB – 8Mib unallocated – sda2; OS; ntfs; 68.26MiB/122.07MiB – 4.42GiB unallocated (ausgewählt). Kontextmenü mit „New“ ausgewählt.Screenshot „Create new Partition“. Schmaler Kasten rechts im Balken. Free space preceding: 4399MiB, New Size 128MiB, Free space Following: 0MiB, Aligned to MiB, Create as Primary Partition, File System fat32. Kein Name/Label. Screenshot gparted mit neuer fat32-Partition und 1MiB unallocated dahinter. Kontextmenü der Partition. Manage Flags ausgewählt.Dialog „Manage Flags“. boot und esp ausgewählt.
Jetzt muss nur noch das Betriebssystem überzeugt werden mit der neuen Basis zu starten. Hierzu startet man einen passenden Installationsdatenträger, wählt aber über Repair→Troubleshoot die Eingabeaufforderung/Command line.
Windows 10 Setup Begrüßungsbildschirm. In der Mitte „Jetzt installieren“, unten links „Computerreparaturoptionen“.Optionsauswahl für Reparatur. Fortsetzen, Ein Gerät verwenden, Problembehandlung und PC ausschalten. Problembehandlung ausgewählt.Erweiterte Optinen. Starthilfe, Eingabeaufforderung (ausgewählt), Updates deinstallieren, UEFI-Firmwareeinstellungen, System wiederherstellen, Systemimage-Wiederherstellung
Hier werden dann erst mal die Laufwerksbuchstaben sortiert – ist mir sonst zu viel Chaos. Mit diskpart gelangt man in den passenden Editor, mit list volume kann man die aktuellen Partitionen und deren Buchstaben anzeigen lassen. Möchte man etwas ändern, wählt man z.B. mit „select partiton 3“ aus und weist mit „assign letter=s“ den Buchstaben zu. Ich habe die Windows-Partition auf C und die kleine EFI-Partition auf S.
Screenshot Eingabeaufforderung mit Diskpart. list Volumes zeigt die zuvor genannten Partitionen sowie die DVD (D). Die OS-Partition hat den Buchstaben C, die EFI-Partition hat keinen Buchstaben. Nach select volume und assign letter zeigt list volume den buchstaben an.
Ist man Fertig kann man das Tool mit exit beenden. Zuletzt wird der Windows-Bootloader neu aufgebaut – dies geschieht über die folgenden Befehle:
Nun kann man mit Exit und den passenden Menüpunkten das System ausschalten. Mit ausreichend gedrückten Daumen sollte beim nächsten Versuch Windows dann wieder starten und das gewohnte System präsentieren. Dieses kann man nun bewundern und die durch Umwandlung statt Neuinstallation gewonnene Zeit nutzen um darüber nachzudenken, wie man die Anwendung zukünftig auf ein freies Betriebssystem umziehen kann.
Wer kennt es nicht: Man will „was kleines“ Bauen, hat während dem Basteln aber noch ein paar Ideen und dann? Keine Pins mehr. Grade bei kleinen Boards wie dem ESP32-C3 Super Mini sind diese ja ohnehin Mangelware. Die Lösung? Port-Expander. Mit wenigen Pins am µC erhält man so schnell größere Mengen an GPIO. Vor einiger Zeit hatte ich zu diesem Zweck den MCP23S17 mit SPI gezeigt, inzwischen scheint der PCF8575 (bzw. je nach Heristeller PCA8575) mit 16 Pins oder auch der kleine Bruder PCF8574 mit 8 Pins günstiger zu sein. Und Dank I2C spart man auch gleich noch Pins bei der Anbindung an seine Schaltung.
Inhalt
00:00 Das Problem
00:52 Port Expander / Boardaufbau
03:24 Testaufbau
04:55 Software mit ESPHome
13:07 Praktisches Beispiel
Fehler und Ergänzungen:
11:32 100µA, nicht 100mA. Kurzzeitig kann es beim Umschalten etwas mehr sein, dieser „strong pull-up“ ist aber nur um die Umschaltzeiten gering zu halten. Der IC ist als Ausgang also nur für Lasten tauglich, die gegen GND gezogen werden müssen. (Danke, oliver)
Das Gerät wurde selbst gekauft und bezahlt. In der Videobeschreibung sind Affiliate-Links zu Produkten, welche im Video zu sehen sind. Durch Nutzung dieser Links erkennt der Händler, dass Ihr über meine Seite zu ihnen gefunden habt. Ich werde prozentual an hierüber erzielten Umsätzen beteiligt, die Preise ändern sich hierdurch für Käufer*innen gegenüber einem direkten Einkauf auf der Plattform nicht. Tipp: Vergleicht vor einem Kauf die Preise – einige Händler erhöhen diese wenn sie merken, dass diese in Videos verlinkt wurden. Da es sich um einen generischen IC handelt, gibt es unzählige Angebote verschiedener Anbieter.
HDMI über längere Strecken zu verlegen ist eher unschön. Unflexible Kabel und nicht wechselbare Stecker bringen in vielen Situationen Probleme, welche bei anderen Verkabelungsstandard wie z.B. Kupfer-Netzwerk seit langem gelöst sind. Kleine Kästen können die HDMI-Signale so umsetzen, dass sie über diese Netzwerkkabel übertragen werden können. Oder übertragen werden sollten, denn dieses Set drückte man mit mit der Info „Billigkram gekauft, geht nicht“ in die Hand. Schauen wir mal, ob wir die Ursache finden.
Inhalt
00:00 HDMI
00:37 Packungsangaben
05:45 Lieferumfang
06:52 Anleitungsangaben
09:25 Zerlegerei
11:45 Funktionstest
17:01 Kapitulation
Transparenz
Das Gerät wurde mir für eine Funktionsprüfung überlassen und ging im Anschluss wieder zurück. Die Person ist nicht in den Verkauf der Geräte involviert. Angesichts der widersprüchlichen Angaben des Herstellers dürfte es für die meisten Anwendungsfälle eher nicht zu empfehlen sein.
Ein letzter Auftritt des E-Herds aus den 80ern: Mittels ESP32, SSRs und Thermocouple soll der Backofen jetzt Smart werden und sich von PC oder Smartphone per HomeAssistant (fern)steuern lassen. Schauen wir mal, ob wir das ohne zwischenfälle zusammengestellt bekommen.