Maschinenbau-
Wiki
Begriffe leicht erklärt.
Unser MackSmaTec-Wiki bietet Ihnen die Möglichkeit schnell und einfach Begrifflichkeiten aus verschiedenen (Maschinenbau-)Branchen nachzuschlagen. Bei der Auswahl an Begriffen haben wir uns auf unsere vier Geschäftsbereiche fokussiert. Von Abrasivmittel und Aufschrumpfen bis Wendelförderer geben wir Ihnen eine Antwort auf die Frage: Was ist das eigentlich?
Schrumpfen bzw. Aufschrumpfen
Das Schrumpfen bzw. Aufschrumpfen bezeichnet ein Fügeverfahren, welches auf dem Prinzip der Wärmeausdehnung basiert. Es kommt besonders häufig im Maschinenbau zum Einsatz und kann mit weiteren Fügeverfahren, wie etwa dem Kalt- oder Eindehnen kombiniert werden. Beim Schrumpfen bzw. Aufschrumpfen entstehen nahtlose, dauerhafte Verbindungen, die selbst stärksten Beanspruchungen standhalten können. Entsprechend erweist sich das Schrumpfen in vielen industriellen Bereichen als lohnenswerte Alternative zu Fügeverfahren, bei denen Materialverletzungen stattfinden (zum Beispiel Löten, Schrauben oder Schweißen).
Wie funktioniert das Schrumpfen bzw. Aufschrumpfen?
Dem industriellen Fügeverfahren des Schrumpfens liegt ein einfaches physikalisches Prinzip zugrunde: Bestimmte Materialien dehnen sich bei hohen Temperaturen aus und ziehen sich bei Kälte wieder zusammen. Um also zwei Bauteile über das Schrumpfen miteinander zu verbinden, wird eines der beiden Bauteile bis zu dem Grad erwärmt, an dem es sich ausdehnt. Anschließend wird das gedehnte und erwärmte Bauteil über das nicht erwärmte Bauteil gezogen und abgekühlt. Mit sinkenden Temperaturen schrumpft das zuvor erhitzte Bauteil zu seiner ursprünglichen Größe zusammen und umschließt seinen Fügepartner dabei dauerhaft und fest. Diese Verbindung kann erst wieder gelöst werden, wenn das Bauteil erneut erhitzt wird. Hierbei gilt es zu beachten, dass nur das äußere, umschließende Bauteil erwärmt wird. Dehnt sich das umschlossene Bauteil ebenfalls aus, kommt es nicht zu einer Lösung der Schrumpfverbindung. Dies wird in der Regel mithilfe von Induktionserwärmung erreicht, weil diese die Bauteile punktgenau und materialschonend erhitzen kann
Wo wird das Schrumpfen angewendet?
Das Schrumpfen wird normalerweise nur in Verbindung mit Metallteilen angewendet. Da sichergestellt werden muss, dass die Materialeigenschaften nach dem Ausdehnen und Erkalten auf gleichem Niveau stabil bleiben, sind andere Materialien für das Schrumpfen nicht geeignet. Durch Aufschrumpfen miteinander verbunden werden häufig Ringe, Zahnräder, Wellen oder Rohre. Besondere Einsatzgebiete dieses Fügeverfahrens finden sich neben dem Maschinenbau auch im Schiffbau, der Automobilindustrie sowie der Luft- und Raumfahrttechnik. Ein klassisches Beispiel ist die Herstellung von Eisenbahnrädern, bei denen Radreifen und Welle über das Aufschrumpfen dauerhaft und stabil gefügt werden. Auch viele Werkzeuge werden mittlerweile mit einer Schrumpftechnik ausgestattet: Auf diese Weise lassen sich beispielsweise Aufsätze im Futter präzise befestigen.
Welche Vor- und Nachteile besitzt das Schrumpfen?
Das Schrumpfen bzw. Aufschrumpfen ist ein relativ simpel aufgebautes Fügeverfahren, bei dem keine zusätzlichen Hilfsmittel wie Klebstoffe benötigt werden. Darüber hinaus finden keine Materialverletzungen statt. Die beim Schrumpfen entstehende Verbindung ist stabil und dauerhaft, kann jedoch durch erneutes gezieltes Erwärmen des Fügepartners auch wieder gelöst werden. Allerdings ist das Verfahren ausschließlich für Metalle geeignet, die sich bei Wärme ausdehnen können, ohne dabei an Materialeigenschaften einzubüßen. Deshalb muss beim Schrumpfen unbedingt auf die Einhaltung der korrekten Temperaturen geachtet werden. Überdies ist eine gleichmäßige Erwärmung entscheidend, damit es nicht zu unterschiedlichen Ausdehnungsgraden und damit zu Materialverzug kommt.
BEV – Battery Electric Vehicle
BEV ist die Abkürzung für „Battery Electric Vehicle“, die sich mittlerweile auch im Deutschen eingebürgert hat. Alternativ wird häufig vom batterieelektrischen Fahrzeug oder batterieelektrischem Auto gesprochen. Gemeint ist hiermit immer ein reines Elektrofahrzeug, das komplett ohne Verbrennungsmotor auskommt und die für seinen Betrieb benötigte Energie ausschließlich über eine im Fahrzeug verbaute Batterie bezieht. Im Gegensatz zu anderen Elektrofahrzeugen, wie etwa dem HEV (Hybrid Electric Vehicle) oder dem FCEV (Fuel Cell Electric Vehicle) werden BEV deshalb oftmals als „reine Elektrofahrzeuge“ bezeichnet.
Was ist ein BEV?
Ein Battery Electric Vehicle ist ein Fahrzeug, das ausschließlich durch Batteriestrom betrieben wird. Es steht dementsprechend anderen sogenannten Elektroautos, wie beispielsweise den Hybrid Electric Vehicles oder den Plug-In Hybrid Electric Vehicles, die häufig mit einem Energiemix unterwegs sind, gegenüber. Im BEV hingegen ist einzig ein elektrischer Antriebsmotor verbaut, der die benötigte Energie aus einer leistungsstarken Batterie erhält. Diese wiederum wird extern aufgeladen – etwa an der Energietanksäule oder an der heimischen Wallbox. Ein Teil, der über die Batterie zur Verfügung gestellten Energie, wird zudem durch das Fahrzeug selbst generiert: Beim Bremsen findet eine sogenannte Energierückgewinnung (Rekuperation) statt, die dafür sorgt, dass sich der Akku bei jeder Bremsung wieder etwas auflädt. Der Effekt kann allerdings nicht genutzt werden, um das BEV allein mithilfe der Rückgewinnung zu betreiben.
Welche Vorteile bietet das BEV?
Komplett batterieelektrische Autos bieten eine ganze Reihe von Vorteilen. So ist ein BEV abgasfrei unterwegs, weil es ohne Verbrennungsmotor läuft. Wer sein Battery Electric Vehicle darüber hinaus mit Strom aus erneuerbaren Energien betreibt, spart zusätzlich große Mengen an CO2 ein. Über den gesamten Lebenszyklus hinweg haben batterieelektrische Fahrzeuge gegenüber Autos mit Benzin- oder Dieselmotor entsprechend eine deutlich bessere Bilanz hinsichtlich der Treibhausgasemissionen. Darüber hinaus verursachen BEVs sehr viel weniger Kosten bei Pflege und Wartung: Es gibt keine Zündkerzen und kein Motoröl mehr, die gewechselt werden müssen, die Bremsen werden weniger beansprucht und auch ein Getriebe gehört bei den reinen Elektrofahrzeugen der Vergangenheit an. Weiterer Pluspunkt: Elektromotoren verursachen nicht nur weniger Abgase, sondern auch einen geringeren Geräuschpegel. Insbesondere in Städten, aber auch in ländlichen Wohngebieten, kann das zu mehr Lebensqualität beitragen.
Welche Nachteile hat das BEV?
Batterieelektrische Fahrzeuge bieten zwar etliche Vorteile, stehen jedoch aufgrund verschiedener Aspekte auch immer wieder in der Kritik. Da sind zum Beispiel die hohen Energiekosten und der Verbrauch wertvoller Ressourcen, die bei der Herstellung der benötigten Batterien anfallen. Darüber hinaus existiert bei vielen BEVs noch immer das Problem der begrenzten Reichweite sowie der Temperaturanfälligkeit der Batterien. Auch die langen Ladezeiten sowie die teilweise mangelhafte Infrastruktur bezüglich bereitstehender Ladesäulen wird immer wieder bemängelt. Die meisten dieser Kritikpunkte sind jedoch darauf zurückzuführen, dass die Entwicklung der BEVs bis dato noch in den Kinderschuhen steckt. So gehen Experten davon aus, dass die ohnehin bereits überzeugende Umweltfreundlichkeit der Fahrzeuge durch zukünftige Entwicklungen weiter ausgebaut werden kann.
Brennstoffzelle
In einer Brennstoffzelle reagiert ein Brennstoff mit einem Oxidationsmittel. Dabei entstehen elektrische Energie, Wärme und Wasser als Reaktionsprodukte. Brennstoffzellen werden heute vor allem mit Wasserstoff als Brennstoff betrieben. Nicht selten spricht man deshalb auch von einer Wasserstoffzelle. Anwendungsgebiete finden sich beispielsweise bei Brennstoffzellenheizungen, in Schiff- und Raumfahrt sowie im Schienenverkehr. Darüber hinaus sind sie seit einigen Jahren als Antrieb für Fahrzeuge im Gespräch – hier sollen die Brennstoffzellen helfen, einen klimafreundlichen Straßenverkehr zu etablieren.
Was ist eine Brennstoffzelle?
Eine Brennstoffzelle ist eine galvanische Zelle, deren Hauptaufgabe es ist, thermische und elektrische Energie zu erzeugen. Dafür wird keinerlei zusätzliche Energie von außen benötigt, weshalb man auch von einer sogenannten „kalten Verbrennung“ spricht. In der Brennstoffzelle wird Wasserstoff über den Tank zur Anode geführt, während Sauerstoff aus der Umgebungsluft an die Kathode gelangt. Bei der Reaktion beider Stoffe miteinander kommt es zur Freisetzung thermischer und elektrischer Energie, ohne das Stickoxide erzeugt werden. Durch die permanente Zuführung von Wasserstoff und Sauerstoff ist zudem eine kontinuierliche Energieerzeugung möglich. Wichtig: Eine Brennstoffzelle ist ein Energiewandler und kein Energiespeicher – hierin besteht der entscheidende Unterschied zu einer Batterie.
Gescheiterte Einsatzgebiete von Brennstoffzellen
Brennstoffzellen bieten die Möglichkeit einer autarken Energieerzeugung bei besonders geringem Gewicht. Das ist in vielen Bereich ein Vorteil, weshalb die Technologie beispielsweise in der Luft- und Raumfahrt genutzt wird. Viele Unternehmen wollten die Brennstoffzelle deshalb auch als mobile Energieversorgung für elektronische Geräte einführen. Im Raum standen beispielsweise Lösungen für portable Aufladegeräte für Smartphones, die über eine Brennstoffzelle unterwegs geladen werden sollten. Zu tatsächlichen Markteinführungen ist es bislang allerdings nicht gekommen. Experten gehen zudem davon aus, dass sich die Nachfrage nach Brennstoffzellen für die Versorgung von elektronischen Kleingeräten vermutlich nicht durchsetzen wird. Stattdessen eingesetzte Batterien erweisen sich bereits als klein, kompakt und leistungsstark genug.
Brennstoffzellen in Kraftfahrzeugen
Brennstoffzellen stehen als Alternative zu klassischen Verbrennungsmotoren im Raum. In Deutschland werden derzeit zwar die batterieelektrischen Fahrzeuge (BEV) favorisiert, in Japan wiederum spielt die Brennstoffzelle beim Thema E-Mobilität eine größere Rolle. Hier gelten Fahrzeuge mit Brennstoffzelle als wichtige Alternative auf dem Weg hin zur Energiewende und sind als Brennstoffzellen-Fahrzeuge bzw. Fuel Cell Electric Vehicle (FCEV) auf den Straßen unterwegs. Im Vergleich zu klassischen Elektroautos mit Batterie überzeugen die Fahrzeuge mit einer Brennstoffzelle durch kürzere Ladezeiten und größere Reichweiten. Nachteile sind jedoch, dass vor allem grüner Wasserstoff für den Betrieb der Brennstoffzellen bislang noch nicht (ausreichend) verfügbar ist und dass die kostengünstige serienmäßige Produktion von Autos mit Brennstoffzelle noch auf sich warten lässt.
Vorteile der Brennstoffzelle
Wenn es um die Vorteile von Brennstoffzellen geht, muss zunächst geprüft werden, womit die Brennstoffzelle verglichen wird. Als Antrieb in einem Kraftfahrzeug bietet die Brennstoffzelle gegenüber Dieselmotoren eine Reihe von Vorteilen – allein der reduzierte CO2-Ausstoß ist bemerkenswert. Beim Vergleich einer Brennstoffzelle mit einer herkömmlichen Batterie sind die Unterschiede dagegen nicht mehr ganz so groß: Brennstoffzellen bieten den Vorteil eines geringeren Gewichts, sind dafür aber mit deutlich höheren Investitionskosten verbunden.
Mit Blick auf die Autoindustrie kann es eine Chance sein, Batterie- und Brennstoffzellentechnik nicht separat als konkurrierende Angebote zu betrachten, sondern die Vorteile möglicher Hybridformen zu erkennen. Insbesondere für große, schwere Fahrzeuge sind Brennstoffzellen nach Meinung einiger Experten jedoch von vornherein die bessere Wahl – die zusätzliche Belastung durch schwere Batterien kann mit ihrer Hilfe umgangen werden.
CAD: Rechnerunterstütztes Konstruieren nach Maß
Die Abkürzung CAD steht für den englischen Begriff computer-aided design, hinter dem sich das auf Deutsch etwas sperrig klingende Konzept des rechnergestützten Konstruierens verbirgt. Einfacher gesagt: Eine CAD-Software ermöglicht das Konstruieren von Objekten mithilfe verschiedenster Daten an einem Computer. Anstatt das Objekt von Hand zeichnen zu müssen, können die komplette Modellierung oder auch nur die Gestaltung von Teilaspekten am Rechner vorgenommen werden. Wie eng oder wie weit die Begriffsdefinition reicht, ist dabei Auslegungssache. Insbesondere im Bereich technischer Zeichnungen sowie der technischen Dokumentation sind CAD (ebenso wie CADD)-Systeme und -Programme überaus hilfreich. Sie sorgen nicht nur für ein Plus an Flexibilität und Präzision, sondern helfen zudem Einsparpotentiale dank schnellerer Ergebnisse umzusetzen.
CAD-Software: Wie funktionieren CAD-Programme und wo werden sie genutzt?
Wer heute beispielsweise im Bereich der CNC-Lohnfertigung aktiv ist, kommt um die Nutzung von CAD-Software eigentlich kaum noch herum. Denn die CAD-Software ermöglicht es die Konstruktionsvorgaben direkt an das CNC-Gerät zu übertragen und spart dadurch zahlreiche Zwischenschritte ein. Parallel dazu werden Übertragungsfehler ausgeschlossen. Wie genau eine CAD-Software funktioniert, ist vom jeweiligen Hersteller und dem Anwendungsbereich abhängig. In industriellen Branchen werden CAD-Programme beispielsweise für die Konstruktion von Modellen oder für deren Überprüfung genutzt. Möglich ist es mithilfe von CAD sowohl 2D- als auch 3D-Modelle anzufertigen. Diese lassen sich, in Abhängigkeit von der jeweiligen Software, unter realen Bedingungen im virtuellen Raum überprüfen. So können beispielsweise Schwachstellen oder Fehler identifiziert und behoben werden, noch bevor die Kosten in den Bau der Prototypen investiert werden. Dank dieser umfangreichen Anwendungsmöglichkeiten greifen heutzutage praktisch alle Branchen auf CAD zurück: von der Automobilindustrie über den Sondermaschinenbau bis hin zu Medizintechnik und der Verpackungsindustrie.
Wo liegen die Vorteile vom CAD?
Einige Vorteile von CAD, also dem computer-aided design, wurden bereits benannt. Doch am meisten stechen die zeitsparenden, anpassungsfähigen und akkuraten Arbeitsmöglichkeiten durch die Nutzung einer CAD-Software hervor. Die Identifikation von Fehlern, die Anpassung an sich verändernde Bedingungen sowie die sofortige Speicherung sämtlicher technischer Daten und Informationen rund um den Fertigungsprozess bieten mehr Übersichtlichkeit und eine schnellere Bearbeitung von Aufgaben. Darüber hinaus weiß außerdem die Kompatibilität einzelner Systeme zu überzeugen: Hier ist vor allem die Zusammenarbeit zwischen CAD und CNC zu benennen.
Chaku-Chaku – Arbeitsorganisationsmodell zur Produktivitätssteigerung
Chaku-Chaku ist ein Arbeitsorganisationsmodell, dessen Bezeichnung dem Japanischen entnommen wurde und sich auf Deutsch wörtlich mit „laden, laden“ übersetzen lässt. Alternativ wird hierzulande häufig auch die Bezeichnung „Fließprinzip“ verwendet. Arbeitsorganisationsmodelle wie die Chaku-Chaku-Linie haben in der Industrie den Anspruch eine größere Standardisierung sowie eine verbesserte Prozesskontrolle zu erreichen. Hieraus soll sich langfristig eine Produktivitätssteigerung in Kombination mit einem Anwachsen der Gewinnmarge ergeben. Chaku-Chaku kann als Erweiterung oder Weiterentwicklung zum One-Piece-Flow-Modell verstanden werden.
Hinter Chaku-Chaku verbirgt sich ein Modell der Fließ- und Reihenproduktion, bei dem es darum geht sämtliche Arbeitsplätze, die für die Herstellung eines Produkts benötigt werden, so aufzustellen, dass zwischen ihnen minimal kurze Wege bestehen. Auf diese Weise ergibt sich häufig eine Aufstellung der Arbeitsstationen, die mit Blick auf die Form an ein U oder ein Omega erinnert. Dank dieser Aufstellung wird es möglich, dass ein einzelner Mitarbeiter mehrere Maschinen bzw. Arbeitsstationen gleichzeitig bzw. parallel bedient. Er ist hierbei in der Regel lediglich für das Be- und Entladen der jeweiligen Maschinen sowie für den Transport der Produkte von einer Station zur nächsten verantwortlich. Die Maschine selbst erledigt ihre Aufgabe ohne das Zutun des Mitarbeiters. Je nach Komplexität ist es möglich eine Chaku-Chaku-Linie auch mit mehreren Mitarbeitern zu bestücken, denen jeweils einzelne Aufgabenbereiche zugeordnet werden. In der Praxis haben sich Modelle des Chaku-Chaku mit ein bis drei Arbeitskräften als erfolgreich realisierbar erwiesen.
Wo liegen potentielle Vorteile von Chaku-Chaku?
Durch den Verzicht auf lange Transportwege zwischen einzelnen Arbeitsstationen werden Zeitverluste bei der Herstellung eines Produkts minimiert. Gleichzeitig werden teure und komplexe Verkettungsmaschinen obsolet. Diese müssen nicht nur nicht länger angeschafft werden, sondern können unter Umständen sogar abgebaut werden. Innerhalb der Chaku-Chaku-Linie lassen sich je nach Produkt zudem auch Handarbeitsplätze integrieren. Dies kann ebenfalls dabei helfen teure Maschinen einzusparen oder abzubauen. Da das Beladen und Starten der einzelnen Maschinen an den jeweiligen Arbeitsstationen durch den oder die Mitarbeiter erfolgt, können unterschiedlich schnell bzw. langsam arbeitende Maschinen aufeinander abgestimmt werden. Das führt zu einer verbesserten zeitlichen Koordination ohne unerwünschte Verluste. In diesem Fall muss allerdings eingeplant werden, dass innerhalb der Chaku-Chaku-Linie Stationen für die Zwischenlagerung teilfertiger Produkte einzurichten sind.
Ein weiterer Vorteil beim Chaku-Chaku liegt in der verkürzten Einarbeitungszeit der innerhalb der Fließarbeit beschäftigen Mitarbeiter. Diese müssen in der Regel nur wenig komplexe Aufgabenstellungen bewältigen und sich lediglich um das Be- und Entladen der Maschinen kümmern. Aufwendige Schulungen entfallen genauso wie die Notwendigkeit einer Anstellung von Fachkräften. Auch dies wirkt sich langfristig kostensparend aus.
Wo liegen potentielle Nachteile von Chaku-Chaku?
Einige der vorab angesprochenen Vorteile von Chaku-Chaku können unter spezifischen Gesichtspunkten auch als Kritikpunkte angeführt werden. Diesbezüglich wäre zum einen die Monotonie der vom Mitarbeiter geforderten Tätigkeit, die zu stark einseitigen Belastungen und dementsprechend gesundheitlichen Nachteilen führen kann, zu benennen. Da zudem die Arbeitszeiten in der Chaku-Chaku-Linie beschleunigt werden, kommen Stress und physische Belastungen hinzu.
Parallel dazu kann ebenfalls der Verzicht auf ausgebildete Fachkräfte als langfristig problematisch angesehen werden. Mitarbeiter, die in einer Chaku-Chaku-Linie arbeiten, werden oft innerhalb kürzester Zeit eingearbeitet und benötigen für ihre Tätigkeiten in der Regel keine spezifische Ausbildung. Aus Arbeitnehmersicht ist das bedenklich, weil das Lohnniveau sinkt und auch eine Lohnsteigerung nur schwer möglich ist. Zusätzliche Qualifikationen haben auf die individuell vorgesehene Tätigkeit innerhalb der Chaku-Chaku-Linie aus lohnperspektivischer Sicht praktisch keine Auswirkungen. Gerade deshalb setzen sich Gewerkschaften und Betriebsräte häufig gegen eine Umsetzung des Chaku-Chaku-Modells ein.
Crimpen
Das Crimpen gehört zu den Fügeverfahren und wird häufig als Alternative zum Löten oder Schweißen genutzt. Bevorzugt kommt das Crimpen zur Anwendung, wenn es um die Herstellung elektrischer Verbindungen geht. Ein Beispiel hierfür ist das Anbringen eines Steckers an einem Kabel inklusive der korrekten Verbindung zwischen den Adern des Kabels und den Steckerkontakten. Der Vorteil gegenüber Löt- und Schweißverfahren besteht vor allem in der Schnelligkeit und Präzision. Aufgrund dessen hat sich das Crimpen inzwischen bei der seriellen Großfertigung vielfach durchgesetzt.
Wie funktioniert das Crimpen?
Das Funktionsprinzip des Crimpens ist relativ simpel: Mithilfe von Druck auf zwei Komponenten wird eine plastische Verformung zwischen diesen erzeugt, welche die beiden Komponenten miteinander verbindet. Hierfür verwendet man spezielles Werkzeug, wie zum Beispiel eine Crimpzange, und presst die beiden Komponenten quasi ineinander. Die Verbindung, die beim Crimpen entsteht, ist stabil und dauerhaft. In der industriellen Fertigung werden für das Crimpen meist Anschlagpressen oder Kabelkonfektionierungsautomaten eingesetzt. Entscheidend für das präzise Arbeiten sind sogenannte Crimpmatrizen. Diese sind auf die zu verbindenden Komponenten abgestimmt und prägen die Art der Verformung bzw. der Crimpverbindung maßgeblich. Wenn die Crimpmatrize nicht passgenau ist, kann eine dauerhaft stabile Verbindung zwischen den beiden Komponenten nicht gewährleistet werden.
Wo wird das Crimpen angewendet?
Das Crimpen kommt nicht nur bei der Herstellung von elektrischen Verbindungen zum Einsatz, sondern ist auch aus alltäglicheren Situationen bekannt. So werden zum Beispiel Nudelspezialitäten wie Ravioli oder Maultaschen gecrimpt. Auch im Büroalltag bedient man sich bisweilen dieses Fügeverfahrens, wenn beispielsweise das verschließende Siegel auf einer Urkunde mithilfe eines Crimpvorgangs aufgebracht wird. Im industriellen Sektor sind es vermehrt die HF-Elektronik und die Telekommunikation, die bevorzugt auf Crimpverbindungen setzen. Hier bietet das Crimpen vor allem den Vorteil, dass es die Verlegung von fertig konfektionierten Kabeln auch ohne Stecker ermöglicht. Dieser wird mithilfe des Crimpens erst nach dem Verlegen angebracht.
Was ist beim Crimpen wichtig?
Damit beim Crimpen wirklich eine dauerhaft stabile Verbindung zwischen zwei Komponenten hergestellt werden kann, ist es wichtig, dass das Crimpen mit ausreichend hohem Kraftaufwand durchgeführt wird. Anderenfalls kann es passieren, dass die plastische Verformung nur unvollständig eintritt und die Verbindung dadurch Schwachstellen aufweist. Wird hingegen ein zu hoher Kraftaufwand eingesetzt, kann es zu Beschädigungen der Komponenten kommen. Auch ein mangelhaftes oder unangepasstes Crimpwerkzeug kann eine mögliche Fehlerquelle sein: Sitzt die Crimpmatrize nicht korrekt auf den zu verbindenden Komponenten, kann dies eine fehlerhafte oder ungenügende Verpressung herbeiführen.
Welche Vorteile bietet das Crimpen?
Das Crimpen ermöglicht eine schnelle, präzise und stabile Verbindung zwischen zwei Komponenten. Diese kann als homogen, gasdicht sowie elektrisch und mechanisch sicher eingestuft werden – sofern das Crimpen korrekt ausgeführt wird.
Dichtheit
Dichtheit bzw. Dichtigkeit ist die Eigenschaft von Materialstrukturen gegenüber bestimmten Stoffen, Gasen, Flüssigkeiten oder auch Strahlung undurchlässig zu sein. Es handelt sich hierbei um ein relatives Konzept, denn absolute Dichtheit kann es nicht geben. Stattdessen ist Dichtheit immer in Relation zum untersuchten Material, dem Aufbau und der durchdringenden „Substanz“ zu bewerten. So erweist sich beispielsweise ein Wasserrohr so lange als dicht, bis der Druck im Inneren zu hoch wird – dann kann das Rohr Risse aufweisen und es tritt Wasser durch die Leckage. Gegenüber Strahlung hingegen besitzt das Wasserrohr vermutlich von vornherein keine Dichtheit. Ob und inwiefern eine Materialstruktur Dichtheit aufweist, wird mithilfe einer Dichtheitsprüfung bzw. Dichtigkeitsprüfung erhoben. Insbesondere in der Produktion gehören Prüfungen der Dichtheit zum Alltag.
Warum ist Dichtheit so wichtig?
In der Produktion sind Dichtheitsprüfungen im Rahmen der Qualitätskontrolle unverzichtbar. Die zerstörungsfreie Prüfmethode wird mitunter auch als Lecktest bezeichnet und kommt bei Systemen und Bauteilen für unterschiedlichste Branchen zum Einsatz. Die Dichtheit eines Bauteils oder komplexen Systems zu prüfen, kann aus verschiedenen Gründen wichtig sein: So kann beispielsweise eine Dichtheitsprüfung während des Produktionsprozesses eine spätere, kostenintensive Nachbearbeitung von Bauteilen verhindern. Zudem können bei der Verwendung von nicht ausreichend dichten Bauteilen und Systemen spätere Reparaturkosten entstehen. Darüber hinaus existieren in vielen Branche spezifische Normen und gesetzliche Richtlinien für die Dichtheit von Bauteilen – um diese zu erfüllen, ist eine Dichtheitsprüfung ebenfalls unumgänglich. Bestes Beispiel: Wenn etwa Rohrsysteme in einer Kühlanlage nicht ausreichend dicht sind, kann es zum Austritt von Gas oder Wasser kommen. Hierdurch können nicht nur hohe Schäden entstehen, sondern möglicherweise auch Unfälle verursacht oder Personen verletzt werden.
Wie prüft man die Dichtheit?
Dichtheitsprüfungen kommen in verschiedensten Produktionsprozessen zum Einsatz – deshalb existieren je nach Anwendungsfall spezifische Dichtheitsprüfverfahren, die meist als Vakuum- oder Überdruck-Verfahren umgesetzt werden. Die entsprechenden Vorgaben sind der DIN EN 1779 zu entnehmen. Typische Beispiele sind:
Werker-Wasserbad-Prüfung (Blasentest)
Wasserbadprüfung mit Ultraschallsensor
Differenzdruck-Prüfung
Ultraschall-Detektion
Dichtheitsprüfung mit Testgasen
Entscheidend ist, dass die Prüfung der Dichtheit eines Prüflings bereits in die Produktion integriert wird. So können teure Nachbearbeitungen in der Serienfertigung von vornherein verhindert werden. Damit die Prüfverfahren jedoch tatsächlich verlässliche Ergebnisse liefern, sollten die hierfür genutzten Geräte regelmäßig gewartet und gegebenenfalls neu justiert werden.
In welchen Branchen spielt die Dichtigkeit bei Bauteilen und Systemen eine Rolle?
Dichtheitsprüfungen können heutzutage für (fast) jeden seriellen Produktionsprozess empfohlen werden. Zu den Branchen, die dichte Bauteile und Systeme benötigen, gehören beispielsweise der Automobilsektor, Schiffbau, Medizin- und Labortechnik, Luft- und Raumfahrtindustrie, Maschinenbau, Elektrotechnik und viele weitere. Weitere Messtechnologien, die in der industriellen Serienproduktion zum Einsatz kommen, sind unter anderem Drehmoment, Röntgen und Radar.
dpi – Punktdichte bei der Reproduktion von Bildern
dpi ist eine Abkürzung und steht für dots per inch. Auf Deutsch übersetzt bedeutet das wiederum "Punkte pro Zoll" und entspricht einer Angabe für die sogenannte Punktdichte. Mit der Punktdichte wird bei der Reproduktion von Bildern angegeben, wie detailgenau die Darstellung ausfällt. Für gewöhnlich gilt, dass eine höhere Punktdichte bzw. eine höherer dpi-Wert eine bessere Detailgenauigkeit repräsentiert. Bei der Bewertung der Qualität einer Reproduktion sind neben der Punktdichte noch weitere Faktoren entscheidend: Die Farbtiefe sowie die Schärfe des Bildes spielen eine wichtige Rolle. Im Zusammenhang mit dem dpi-Wert wird häufig auch von Auflösung gesprochen.
dpi und weitere Maßeinheiten zur Punktdichte
Wenn es um die Punktdichte geht, spielen neben der Maßeinheit dpi unter Umständen noch weitere Einheiten eine Rolle. So gibt es noch dpcm bzw. dpc, was für "dots per centimetre" steht, oder ppi, was der Einheit "pixel per inch" entspricht. Auch die Einheit lpi "lines per inch" kann relevant werden. Je nachdem, für welchen Bereich die Punktdichte berechnet werden soll, kommen andere Parameter zum Tragen. Die Unterschiede zwischen dpi und dpc ergeben sich aufgrund der Differenz zwischen dem metrischen und dem angloamerikanischen Maßsystem. Sie bezeichnen jedoch im Grunde das Gleiche.
Der Unterschied zwischen den einzelnen Einheiten ist prinzipiell schnell erklärt: dpi und lpi sind vor allem für Druckverfahren relevant, während die Einheit ppi bei der digitalen Darstellung zum Tragen kommt. Dots bezeichnen konkrete Druckpunkte, während der Begriff Pixel digitale Bildpunkte bezeichnet. Wenn nun zum Beispiel mittels Inkjet-Verfahren ein Bild auf ein Trägermedium gedruckt werden soll, muss festgelegt werden, wie hoch der dpi-Wert ausfallen soll. Das geschieht mithilfe eines Rasters: Angegeben wird, wie viele Druckpunkte beim ausgewählten Verfahren auf dem Quadratzentimeter bzw. Quadratzoll Fläche landen. Hierfür wird der lpi-Wert zur Hilfe genommen, mit dem sich bestimmen lässt, wie viele Reihen von Druckpunkten auf dem Quadratzentimeter bzw. dem Quadratzoll Fläche abgebildet werden sollen. Je feiner das Raster, desto höher die Punktdichte. Wer nun aber denkt, dass es eine verbesserte Bildqualität mit sich bringt, wenn man dpi und lpi kontinuierlich nach oben schraubt, der täuscht sich. Tatsächlich ist die visuelle Wahrnehmung des menschlichen Auges limitiert und ein dpi-Wert oberhalb einer bestimmten Grenze ist nicht zweckdienlich.
Beste Auflösung mit Blick auf den dpi-Wert
Wenn es um die bestmögliche Auflösung bzw. den optimalen dpi-Wert für Druckvorgänge geht, spielen verschiedene Faktoren eine Rolle. Pauschale Angaben sind in der Regel nicht möglich. So ist es zum Beispiel bei besonders kleinen Druckvorlagen problemlos möglich einen niedrigeren dpi-Wert zu wählen als bei einer mittelgroßen Druckvorlage. Das liegt daran, dass das menschliche Auge dazu übergeht kleine Fehler automatisch auszugleichen. Bei einer großen Druckvorlage wiederum ist ein sehr ähnlicher Effekt bemerkbar: Die einzelnen Bildpunkte werden vom Auge zusammengezogen und verschwimmen zu einem großen Ganzen. Das gilt allerdings nur, wenn man sich im richtigen Abstand vor dem Bild befindet. Das ist etwa bei gedruckten Plakaten häufig der Fall. Bei der richtigen dpi-Auswahl kommt es demnach auf das individuelle Projekt an. Darüber hinaus sind verfahrenstechnische Limitierungen zu berücksichtigen. Beim Inkjet-Druck können beispielsweise Werte von 600 dpi gut erreicht werden, während bei anderen Druckverfahren nur geringere Druckauflösungen möglich sind.
Drahtbonden – ein Thermokompressionsverfahren für Elektronikbauteile
Beim Thermokompressionsverfahren oder auch Thermokompressionsschweißen handelt es sich um ein Schmelzschweißverfahren, welches insbesondere beim dauerhaften Zusammenfügen von empfindlichen Elektronikbauteilen wie dem Drahtbonden zum Einsatz kommt. Alternative Schweißverfahren, die ebenfalls eine dauerhafte Verbindung zweier Bauteile untereinander ermöglichen, kommen aufgrund verschiedener Gründe in diesem Bereich häufig nicht in Frage. Ein Beispiel hierfür ist das Laserschweißverfahren, welches in der Regel derart hohe Temperaturen erzeugt, dass elektronische Bauteile wie etwa Chips hierbei einen Schaden erleiden können. Das Thermokompressionsschweißen ist da anders: Es ähnelt im Prinzip dem Lichtbogenbolzenschweißen, weil es sich hierbei ebenfalls um ein Pressschweißverfahren handelt. Beim Thermokompressionsschweißen werden jedoch nicht die Kontaktpunkte an den Bauteilen selbst geschmolzen, sondern es wird vor allem bei elektronischen Bauteilen mit einem Draht gearbeitet. Daher rührt auch die spezifische Bezeichnung des Teilaufgabenbereichs "Drahtbonden". Wie genau das Verfahren funktioniert und welche Vorteile und Schwierigkeiten berücksichtigt werden müssen, wird nachfolgend erklärt.
Die Funktionsweise des Thermokompressionsschweißens beim Drahtbonden
Die nachfolgenden Ausführungen beziehen sich in erster Linie auf das Thermokompressionsschweißen, welches bei der Fertigung von Elektronikbauteilen zum Einsatz kommt. Hierbei spricht man auch vom sogenannten Drahtbonden, wobei vorrangig das Verfahren gemeint ist, bei dem Chips mit dem jeweiligen Gehäuse kontaktiert werden. Dafür wird zunächst ein feiner Golddraht durch eine sogenannte Kapillardüse geführt und dabei von unten über eine kontrollierte Hitzequelle erwärmt. Durch die Erwärmung schmilzt der Draht zu einer Kugel, die anschließend bei der ersten Schweißung auf die Kontaktstelle gepresst wird. Diese Kontaktstelle wird auch als Bondinsel bezeichnet. Um nun eine Verbindung mit einer weiteren Bondinsel bzw. Kontaktstelle herstellen zu können, wird die Kapillardüse wieder nach oben geführt und in einem Halbkreis auf die nächste Kontaktstelle gebracht. Dort erfolgt wiederum ein neuerliches Andrücken mit anschließendem Abschneiden des Drahtes. Verwendet wird beim Thermokompressionsschweißen im Zusammenhang mit Elektronikbauteilen bzw. dem Drahtbonden ausschließlich feiner Golddraht. Dieser wird bei Temperaturen von um die 350°C verarbeitet. Der Vorteil von Golddraht besteht darin, dass er resistent gegenüber Oxidationsvorgängen und damit für die Fertigung von Elektronikbauteilen geeignet ist. Theoretisch wäre es auch möglich andere Materialien zu verwenden, allerdings wäre dies nur mit großem technischen Aufwand möglich, der sich aus Kostensicht meist nicht rechtfertigen lässt.
Vor- und Nachteile vom Drahtbonden als Variante des Thermokompressionsschweißens
Bei der Fertigung von Elektronikbauteilen mithilfe des Thermokompressionsschweißens sind eine Reihe von Vor- und Nachteilen gegenüber anderen Verfahren und Methoden zu benennen. Gegenüber dem Laserschweißverfahren bringt das Thermokompressionsschweißen bzw. das Drahtbonden den Nachteil des Material- und Werkzeugverschleißes mit sich. Auf der anderen Seite sind die geringeren Arbeitstemperaturen, die beim Thermokompressionsschweißen erzeugt bzw. benötigt werden, den oftmals empfindlichen Bauteilen zuträglicher. Zu den weiteren Vorteilen neben dem niedrigen Wärmeeintrag gehören die kurzen Erhitzungszeiten sowie die Tatsache, dass die über das Thermokompressionsschweißen verbundenen Teile keine Verformungen erleiden. Die Festigkeit und Dauerhaftigkeit der Verbindung ist ebenfalls ein positives Merkmal dieses Verfahrens.
Drahterodieren – Schneidverfahren mit hoher Präzision
Das Drahterodieren gehört, ebenso wie das Senkerodieren, zu den abtragenden Fertigungsverfahren, die nach dem Prinzip der Funkenerosion arbeiten. Häufig wird in diesem Zusammenhang auch vom Drahtschneiden, Schneiderodieren oder der Drahterosion gesprochen. Das Bearbeitungsverfahren kommt in industriellen Fertigungsprozessen, beispielsweise als Alternative zum Fräsen, zum Einsatz. Drahterodieren zeichnet sich dadurch aus, dass elektrisch leitfähige Materialien mit höchster Genauigkeit und beachtlicher Schnittgeschwindigkeit bearbeitet werden können. Im Fokus des Aufgabenspektrums stehen bei der Drahterosion vor allem die Herstellung von Prototypen sowie Schnitt- und Stanzwerkzeugen.
Wie funktioniert das Drahterodieren?
Beim Drahterodieren sind drei Elemente von besonderer Wichtigkeit: Drahtelektrode, Dielektrikumsbad und Werkstück. Sowohl das Werkstück als auch die Drahtelektrode befinden sich während des Schneidvorgangs im Dielektrikumsbad. Dieses wird mithilfe einer nicht leitenden Flüssigkeit hergestellt, wofür entweder deionisiertes Wasser oder spezielles Erodieröl zum Einsatz kommen. Teilweise wird alternativ zum Dielektrikumsbad ein Koaxialstrahl genutzt. Der Draht besteht in der Regel aus Messing, kann jedoch ebenso gut aus Kupfer oder Stahl gefertigt sein. Für das Drahterodieren werden normalerweise Draht-Elektroden mit einem Durchmesser zwischen 0.02 mm und 0.33 mm verwendet.
Der genaue Vorgang verläuft schließlich in drei Phasen: Zunächst werden die Drahtelektrode und das zu bearbeitende Material in einem vorab klar definierten Abstand zueinander gebracht. Wichtig ist, dass beide unterschiedlich geladen sind (Werkstück = Anode und Draht = Kathode). Nun wird mithilfe von elektrischen Spannungsimpulsen ein elektrisches Feld erzeugt (Zündphase) – und zwar genau dort, wo der Abstand zwischen Draht und Werkstück am geringsten ist. In diesem Feld findet eine Beschleunigung der elektrisch geladenen Teilchen statt, die zur Entstehung eines sichtbaren Funkens führt. Hierdurch entsteht große Hitze, die dafür sorgt, dass das Dielektrikum verdampft und das Material von Elektrode und Werkstück schmilzt. In der Folge bildet sich eine Gasblase, die sich wiederum mit Plasma anfüllt (Entladephase). Durch eine einsetzende Impulspause (Pausenphase) wird die Stromzufuhr unterbrochen, sodass die Blase implodiert. Hierbei wird das geschmolzene Material vom Werkstück gelöst und mit dem Dielektrikum abtransportiert. Pro Sekunde werden die Vorgänge von Zündphase zu Pausenphase je nach Maschine bis zu 100.000-mal wiederholt. Dabei entstehen Temperaturen von bis zu 40.000°C.
Wo liegen die Vorteile des Drahterodierens?
Das Drahterodieren gehört heute zum Standardverfahren in der formgebenden Fertigung. Dies liegt an den verschiedenen Vorteilen, die es mit sich bringt: So ist zum Beispiel das Zuschneiden äußerst komplexer Formen und kleinster Radien problemlos möglich. Extrem harte Materialien wie etwa Titan lassen sich genauso problemlos bearbeiten wie besonders dicke Werkstücke. Auch äußerst dünne Teile können unkompliziert geschnitten werden, weil es zwischen dem Werkstück und dem Werkzeug zu keinem Kontakt kommt. Der Verschleiß ist minimal, während gleichzeitig praktisch keine Nachbearbeitungskosten entstehen. Schließlich ist das Drahterodieren für perfekte Schnittkanten bekannt.
Nichtsdestotrotz sind nicht alle Materialien fürs Drahterodieren geeignet: Sie müssen leitfähig sein und eine hohe Qualität vorweisen. Anderenfalls sind die Schnittergebnisse gegebenenfalls nicht überzeugend. Außerdem sollten die Materialien wasserunempfindlich sein, weil sie gerade bei längeren Bearbeitungszeiten dauerhaft im Dielektrikum verbleiben müssen (Rostgefahr). Ebenfalls wichtig: Die drei Phasen des Drahterodierens müssen zu 100% aufeinander bzw. auf das zu bearbeitende Material abgestimmt sein. Falsche Einstellungen können zu unsauberen Ergebnissen oder Drahtriss führen.
Dual Interface – Kartenmodell für mehr Flexibilität
Wenn von Dual Interface die Rede ist, ist hiermit in der Regel ein bestimmter Typ von Chipkarten gemeint. Eine Dual Interface-Karte stellt die neuste Generation von sicherheitsoptimierten Chipkarten dar, obwohl dieser Typ eigentlich bereits seit mehreren Jahren im Umlauf ist. Dual Interface-Karten kombinieren die Möglichkeit einer kontaktlosen sowie einer kontaktbasierten Datenübertragung mittels eines einzigen Chips. Das macht sie im Gegensatz zu den bekannten Hybridkarten deutlich flexibler. Nachfolgend geben wir einen Überblick über die verschiedenen Varianten von Chipkarten, um die besonderen Vorteile der Dual Interface-Karte herauszustellen.
Kontaktbasiert oder nicht – Dual Interface-Karten als Problemlöser
Herkömmliche Chipkarten sind meist mit einer von zwei möglichen Schnittstellen ausgestattet, über welche Datenübertragungen vorgenommen werden können. Kontaktbasierte Chipkarten benötigen, wie der Name bereits verrät, den unmittelbaren (physischen) Kontakt mit einem entsprechenden Lesegerät. Erst wenn dieser Kontakt hergestellt ist, können die Daten von der Karte übertragen werden. Demgegenüber stehen meist die sogenannten RFID Chipkarten, die eine kontaktlose Datenübertragung möglich machen. Hochfrequente Radiowellen oder magnetische Wechselfelder, die vom abgestimmten Lesegerät ausgehen, dienen dazu die auf dem Chip der RFID Karte gespeicherten Daten abzurufen. Hierfür wird die Energie von der im Chip integrierten Antenne aufgenommen und decodiert. Gleichzeitig dient die Energie in den meisten Fällen der Stromversorgung des Chips auf der Karte. Beide Arten von Karten befinden sich heute im Umlauf und bringen jeweils individuelle Vor- und Nachteile mit sich.
Kombinationsmöglichkeiten von kontaktlosen und kontaktbasierten Datenübertragungsmöglichkeiten haben sich über viele Jahre hinweg vornehmlich auf den sogenannten Hybridkarten wiedergefunden. Diese verfügen zum einen über eine kontaktbasierte Schnittstelle, wie zum Beispiel einen Magnetstreifen, und eine Antenne für die kontaktlose Datenübertragung. Hybridkarten sind dementsprechend dadurch gekennzeichnet, dass sie über zwei voneinander getrennte Schnittstellen Daten übertragen können. Die Dual Interface Technik bildet somit im übertragenen Sinn die nächste Stufe auf der Evolutionsleiter: Sie vereint beide Schnittstellen in nur einem Chip. Dabei verfügt sie über ein Chipmodul, das gleichzeitig eine Kontaktfläche und eine Antenne besitzt, um beide Varianten der Datenübertragung zu ermöglichen.
Vorteile von Dual Interface – Chipkarten der neuen Generation
Dual Interface-Karten werden bereits in vielen verschiedenen Bereichen eingesetzt, denn sie kombinieren die Vorteile früherer Kartengenerationen auf eindrucksvolle Weise. Herkömmliche kontaktbasierte Chipkarten bringen stets das Risiko einer Verschmutzung der Schnittstelle mit sich. Ist diese beschädigt, können die Daten auf der Karte nicht ausgelesen werden. Das wiederum führt für den Karteninhaber zu Komplikationen. Karten mit kontaktloser Datenübertragung sind dagegen vielerorts einsatzbeschränkt, weil die spezifischen Auslesegeräte und -technologien nicht überall vorhanden sind. Während die neusten Standards in vielen Großstädten und Instituten bereits Gang und Gäbe sind, sind es vor allem regionale und lokale Dienstleister und Geschäfte, die mit den kontaktlosen Datenübertragungen noch ihre Schwierigkeiten haben. Dual Interface liefert für beide Probleme eine Lösung: Durch die Kombination aus kontaktbasierter und nicht kontaktbasierter Datenübertragungsmöglichkeit bietet Dual Interface für Chipkarten maximale Flexibilität und Funktionalität in einem. Das erklärt auch die vielseitigen Einsatzgebiete, in denen die Dual Interface-Karten bereits genutzt werden.
Hierzu gehören unter anderem sogenannte elektronische Identifikationskarten, aber auch elektronische Führerscheine sowie Krankenversichertenkarten sind mit der Dual Interface-Technik ausgestattet. Zukünftig werden mit großer Wahrscheinlichkeit weitere Einsatzgebiete erschlossen, denn Markforschungsanalysen haben ergeben, dass die Nachfrage nach Dual Interface-Karten stetig wächst.
Elektrolyseur
Ein Elektrolyseur ist eine technische Anlage, die mithilfe von elektrischem Strom Wasser (H₂O) in seine Bestandteile Wasserstoff (H₂) und Sauerstoff (O₂) aufspaltet – ein Prozess, der als Elektrolyse bezeichnet wird. Diese Schlüsseltechnologie ist essenziell für die Erzeugung von grünem Wasserstoff, sofern der eingesetzte Strom aus erneuerbaren Quellen stammt.
Funktionsweise im Überblick:
Anode (Pluspol): Hier entsteht Sauerstoff. Elektronen werden dem Wassermolekül entzogen.
Kathode (Minuspol): Hier entsteht Wasserstoff. Elektronen werden zugeführt.
Elektrolyt: Leitet die Ionen zwischen Anode und Kathode, ohne dass sich die Gase vermischen.
Stromquelle: Liefert den für die Elektrolyse nötigen Gleichstrom.
Die erzeugten Gase werden anschließend getrennt aus dem System geleitet und können vielfältig genutzt werden – Wasserstoff z. B. als klimaneutraler Energieträger in Industrie, Mobilität oder zur Zwischenspeicherung erneuerbarer Energie.
Relevanz für den smarten Maschinenbau:
In der modernen Fertigung spielt der Elektrolyseur eine zentrale Rolle für nachhaltige Produktionsprozesse und die Transformation hin zu CO₂-armen Industrien. Smarte Maschinenbauunternehmen wie MackSmaTec tragen durch modulare, skalierbare Systeme zur Integration dieser Technologie in industrielle Wertschöpfungsketten bei.
EMV – Elektromagnetische Verträglichkeit
Die Abkürzung EMV steht für Elektromagnetische Verträglichkeit und bezeichnet die Fähigkeit technischer Geräte selbst keine beabsichtigten oder unbeabsichtigten elektrischen oder elektromagnetischen Impulse/Effekte auszusenden, welche wiederum andere technische Geräte beeinflussen bzw. stören könnten. Besonders wichtig: Die EMV muss unabhängig von der Inbetriebnahme des Geräts gewährleistet sein. Dementsprechend darf eine ausgeschaltete Maschine ebenso wenig Störeffekte bei einem anderen Gerät verursachen, wie eine laufende Maschine. Die Elektromagnetische Verträglichkeit ist per Definition zudem ein wechselseitiges Charakteristikum. Das bedeutet, dass die EMV nicht nur das aktive Beeinflussen, sondern überdies das passive Beinflusstwerden ausschließt. Ein technisches Gerät verfügt demnach genau dann über Elektromagnetische Verträglichkeit, wenn es andere Geräte nicht beeinflusst oder sich selbst beeinflussen lässt.
Mithilfe verschiedener Prüfverfahren in punkto EMV sollen gewollte oder ungewollte Beeinflussungen zwischen technischen Geräten verhindert werden. Dies ist notwendig, um die Funktionalität von Maschinen langfristig gewährleisten zu können und Defekte zu verhindern. Darüber hinaus spielt der rechtliche Aspekt eine wesentliche Rolle: Durch die Beeinflussung von technischen Geräten und Einrichtungen können bei fehlender Elektromagnetischer Verträglichkeit große Schäden entstehen. So können elektromagnetische Effekte beispielsweise dafür verantwortlich sein, dass sich im Fernsehgerät der Rauschanteil erhöht oder die Elektronik des Geräts komplett ausfällt. Auch beim Luftverkehr sind elektromagnetische Wellen unter Umständen problematisch, weshalb die Elektromagnetische Verträglichkeit gesichert werden muss. Dies ist auch der Grund, warum in den meisten Flugzeugen kein Mobiltelefon außerhalb des Flugmodus verwendet werden darf. Weitere Beispiele können im industriellen Anlagen- und Maschinenbau gefunden werden, wo in der Regel zahlreiche unterschiedliche technische Geräte mit einer hohen Leistung parallel in Benutzung sind. Um hier effizient und sicher arbeiten zu können, muss die EMV der einzelnen Geräte unbedingt gewährleistet sein.
Gesetzliche Bestimmungen zur EMV
In Deutschland gilt das 2016 neu gefasste Elektromagnetische-Verträglichkeit-Gesetz, welches sich auf Betriebsmittel bezieht, die entweder selbst als Verursacher elektromagnetischer Störungen angesehen oder die durch elektromagnetische Störungen anderer Verursacher beeinflusst werden können. Mit Ausnahme einiger Geräte, beispielsweise von luftfahrt- oder militärtechnischen Anlagen, kommt das Gesetz flächendeckend zur Anwendung. Der Hersteller des jeweiligen Geräts, bzw. derjenige, der das Gerät in den Handel bringt, hat die Erfüllung des Gesetzes zur EMV sicherzustellen. Dies geschieht in der Regel über verschiedene Prüf- und Nachweisverfahren. Diverse Gerätenormen mit jeweils zugeordnetem Thema sind hierfür im Umlauf. So beschäftigt sich beispielsweise die Fachgrundnorm EN 61000-6-4:2007 + A1:2011 mit der Störaussendung für Industriebereiche.
Etikettieren
Das Etikettieren umfasst das Labeln von Produkten und Gegenständen. Diese werden im Zuge des Etikettierens mit einem Etikett versehen, auf dem verschiedene Angaben stehen können. Besonders typisch ist das Etikettieren bei Getränkeflaschen, aber auch vielen anderen Lebensmitteln: Auf dem Etikett werden nicht nur Angaben zu den Zutaten, sondern auch das Mindesthaltbarkeitsdatum, der Strichcode, der Markenname und viele weitere Informationen aufgeführt. In der industriellen Fertigung läuft das Etikettieren normalerweise halb- oder vollautomatisch ab. Doch genauso gut kann das Etikettieren von Hand vorgenommen werden. Mithilfe kleiner Handetikettierer lässt sich dies heute vergleichsweise schnell bewerkstelligen. Die Preisauszeichnung im Supermarkt gilt hierfür als bekanntestes Beispiel.
Wie funktioniert das Etikettieren?
In Abhängigkeit von der ausgewählten Etikettiermaschine läuft das Etikettieren entweder manuell, halb- oder vollautomatisch ab. Beide automatisierten Maschinen arbeiten mit Etiketten, die auf großen Rollen in die Etikettiermaschine eingelegt werden. Je nach zugrundeliegender Technik werden die Etiketten anschließend über eine Rolle oder eine Bürste oder einen ausfahrbaren Stempel aufgebracht. Bei den Etiketten handelt es sich in der Regel um Klebeetiketten, weshalb man hierbei häufig auch von der Selbstklebe-Etikettierung spricht: In der Maschine werden die Etiketten von der Trägerfolie gelöst, indem sie über eine sogenannte Spendekante geschoben werden. Anschließend wird das Etikett auf dem zu etikettierenden Gegenstand aufgebracht.
Welche Verfahren gibt es beim Etikettieren?
Beim Etikettieren kommen verschiedene Techniken zum Einsatz. So gibt es zum Beispiel das Tamp-on-Verfahren, bei dem das Etikett über den Spendearm gewissermaßen auf das zu etikettierende Objekt aufgestempelt wird. Das erlaubt unterschiedlich hohe Produkte zu Etikettieren, weil der ausfahrbare Spendearm sich an die Größe des Objekts anpasst. Dieses Etikettier-Verfahren wird beispielsweise für Kartons genutzt. Sollen vorwiegend gleich große Produkte etikettiert werden, empfiehlt sich das Wipe-on-Verfahren. Etikettiermaschinen, die mit diesem Verfahren arbeiten, besitzen statt eines Spendearms eine Bürste oder eine Rolle. Das Objekt fährt auf einem Transportband unter der Bürste oder Rolle entlang und so wird das Etikett aufgetragen. Diese Variante ist schneller, bietet dafür aber weniger Flexibilität. Sie eignet sich zum Beispiel für Fertigungsreihen mit stets gleichbleibender Serienproduktion in hoher Stückzahl. Eine weitere Methode für das Aufbringen von Etiketten mithilfe einer Etikettiermaschine ist das Blow-on-Verfahren. Dieses empfiehlt sich besonders für druckempfindliche Etiketten, weil es nicht über direkten Druckkontakt, sondern mithilfe von Druckluft funktioniert. Hierbei werden die Etiketten vermittels Druckluft auf dem zu etikettierenden Objekt aufgebracht. Eine Kombinationsvariante ist das Tamp-Blow-Etikettieren, bei dem mit Druckluft und einem Stempel gearbeitet wird. Beide Varianten ermöglichen das Etikettieren bei überzeugenden Geschwindigkeiten.
Wofür wird das Etikettieren genutzt?
Einige Beispiele für mögliche Einsatzgebiete von Etikettiermaschinen wurden bereits benannt: Flaschen, Lebensmittelbehälter oder Pakete. Daneben gibt es aber noch viele weitere Bereiche, in denen etikettiert wird: So werden etwa fehlerhafte Reisepässe bereits bei der Produktion mit Etiketten versehen, damit diese erst gar nicht in Umlauf kommen. Auch im Montagebereich kommen Etikettiermaschinen zum Einsatz: Mithilfe der Etiketten wird die Traceability bzw. Nachvollziehbarkeit des Produktweges sichergestellt. Hier erweist sich das Etikettieren häufig als günstige Alternative zum Lasern. Eine weitere Verwendungsmöglichkeit ist die Nutzung des Etikettierens zum Verbinden zweier Komponenten: Im Klebespender der Etikettiermaschine befindet sich dann doppelseitiges Klebeband, welches genutzt wird, um zwei Werkteile miteinander zu verbinden.
Gesenkbiegepressen – Blechbearbeitung mit hoher Präzision
Eine Gesenkbiegepresse wird häufig auch als Kantbank oder Abkantpresse bezeichnet und ist eine Maschine mit deren Hilfe große und gebogene Bleche mit hoher Präzision gefertigt werden können. Eine mögliche Alternative zur Gesenkbiegepresse ist die Schwenkbiegemaschine, die nach einem ähnlichen Prinzip arbeitet, jedoch vorrangig bei kleineren Losgrößen zum Einsatz kommt.
Wie funktioniert das Gesenkbiegepressen?
Das Gesenkbiegepressen funktioniert nach einem sehr einfachen Prinzip: Die Gesenkbiegepresse besteht aus einem Pressbalken, der von oben nach unten auf ein Gesenk bzw. eine Matrize gesenkt wird. Am Kopf den Pressbalkens wird wiederum ein Stempel befestigt, der auf das Blech, welches sich zwischen Matrize und Pressbalken befindet, gedrückt wird. Hierdurch hebt sich das zu biegende Blech nach oben und es wird ein Biegewinkel erzeugt. Es ist möglich mehrere Biegungen in einem Werkstück herzustellen, allerdings muss das Blech hierfür aus der Maschine genommen und neu positioniert werden. Die Gesenkbiegepresse verbleibt bei der Neuausrichtung unverändert, was den minimalen Zeitaufwand auch für die Fertigung komplexer Biegeprofile
Was sind die Vorteile vom Gesenkbiegepressen?
Zugegeben das Gesenkbiegepressen birgt auch Nachteile, wie zum Beispiel, dass für viele Arbeitsaufträge ein Werkzeugwechsel zu erfolgen hat, der Zeit kostet und damit die Effizienz schmälert. Umso positiver fällt jedoch auf, dass das Gesenkbiegepressen vielseitig eingesetzt werden kann. Mithilfe dieses Verfahrens werden beispielsweise Blechteile bearbeitet, die später unter anderem bei Aufbauten für LKWs, als Verkleidungsteile oder Komponenten großer Maschinen eingesetzt werden können. Gesenkbiegepressen neuester Generationen können außerdem mit einer CNC-Steuerung ausgestattet sein. Dadurch lassen sich noch exaktere Steuerungsmöglichkeiten realisieren und gleichzeitig kostbare Arbeitszeit einsparen. Auch in punkto Sicherheit sind moderne Gesenkbiegepressen an den höchsten Standards ausgerichtet: Lichtschranken und Sicherheitslaser helfen Unfälle zu vermeiden und das Verletzungsrisiko zu verringern.
Glob Top – Verkapselungsmaterial für mikroelektronische Anwendungen
Bei Glob Top handelt es sich um eine flexible und feste Verkapselung, die unter UV-Licht, sichtbarem Licht oder thermisch ausgehärtet freiliegende Bauteile schützt. Aber auch integrierte Schaltkreise oder Drahtverbindungen werden damit gesichert. Hierfür werden spezielle Klebstoffe eingesetzt. Ebenfalls Verwendung finden sie für Chip-on-Board-Anwendungen oder für die Befestigung von Schaltkreisen auf Glas bzw. PCB. Die hierfür verwendeten Vergussmassen aus Kunststoffen gibt es in unterschiedlichen Viskositäten.
Glob Top - Schutz vor äußeren Einflüssen
Die Verkabelungsmaterialien bzw. Vergussmassen schützen im sogenannten Glob Top Verfahren Elektronikkomponenten vor unterschiedlichen äußeren Einflüssen:
Staub
Feuchtigkeit
Lösemittel
Schmutz
Des Weiteren findet Glob Top Anwendung zum Schutz von besonders empfindlichen Bauteilen gegen Verkratzungen oder mechanische Belastung. Außerdem reduzieren sie die Lokalelementbildung und schützen vor innerer Korrosion. Die eingesetzten Vergussmassen sind in der Regel UV-härtend. Je nach verwendetem Material kann die Aushärtung bereits innerhalb von wenigen Sekunden erfolgen. Die Versiegelung der Bauteile oder Komponenten kann vollautomatisiert erfolgen.
Vergussmassen, die thermisch aushärten, haben den Vorteil, dass sie auch dann aushärten, wenn kein Licht vorhanden ist, wie zum Beispiel in dunklen Räumen oder in Schattenzonen. In der Regel erfolgt die Aushärtung von schwarz eingefärbten Glob Tops ausschließlich thermisch. Sie werden als Beschichtung oder Abdeckung eingesetzt. Die Vergussmassen können nach erfolgter Aushärtung kurzfristig bis 280° C belastet werden - dadurch überstehen sie schadlos einen Reflow-Prozess.
Glob Tops speziell für Chips
Auch zum Schutz von Chips werden Glob Tops eingesetzt. Sie verkapseln den Chip und stellen so sicher, dass empfindliche Drahtkontakte nicht abbrechen. Gleichzeitig erfolgt ein Schutz vor Verkratzungen, Feuchtigkeit und Staub. Die Chipkarten werden durch die eingesetzten Vergussmassen gleichzeitig gegen Cory Korrosion geschützt. Da sie lösungsmittelfrei sind und eine hohe Ionenreinheit besitzen, reduzieren sie gleichzeitig die Lokalelementbildung. Damit sind die Chips haltbarer und verlässlicher.
Sehr häufig wird für die Verkapselung von Chips das Frame-and-Fill-Verfahren (Dam-and-Fill) eingesetzt. In diesem Verfahren wird zunächst einmal unter Einsatz von hochviskosem Klebstoff ein Damm gezogen, der als Rahmen dient. Im Anschluss darauf erfolgt eine Auffüllung vom Rahmen mit flüssigem Kunststoff. Durch den Rahmen wird das Zerfließen des Materials verhindert. Stattdessen ummantelt es weich den Chip inklusive der Kontakte.
Vorteile der Flüssigverkapselung im Glob Top Verfahren
Glob Top gehört zu den Verfahren der Flüssigverkapselung. Das Ziel ist, bei Raumtemperatur elektronische Bauteile mit einer flüssigen Substanz zu schützen. Dafür sind keine produktspezifischen Werkzeuge erforderlich. Zum Einsatz kommen wahlweise ein- oder zweikomponentige Vergussmassen. Sie beruhen überwiegend auf Epoxidharz, Silikon, Polyurethanen oder Acrylat und härten thermisch aus. Meistens sind sie bereits vorgemischt. Häufig zum Einsatz kommen auch einkomponentige Polymersysteme. Sie haben den Vorteil, dass sie unter UV-Licht abbinden. Die Wahl des Materials muss so stattfinden, dass die Isolationseigenschaften und die elektronischen Anforderungen berücksichtigt werden.
Das Vergussmaterial muss eine hohe chemische Reinheit aufweisen, um erfolgreich eine Korrosion zu verhindern. Ansonsten können bei kurzen Leiterabständen Fehlströme abfließen. Aus diesem Grund werden sehr häufig Klebstoffe als Vergussmasse eingesetzt, die aus Epoxidharz bestehen und innerhalb kürzester Zeit mithilfe von UV-Strahlung aushärten. Dadurch sind sie für eine vollautomatische und hochvolumige Fertigung geeignet. Die Aushärtung mit UV-Licht oder sichtbarem Licht sorgt für eine besonders schnelle Verarbeitung. In Schattenbereichen ist ein thermisches Nachhärten möglich. Moderne Vergussmassen sind in der Praxis meistens einkomponentig, wodurch kein Anmischen erforderlich ist. Außerdem sind sie frei von Lösungsmittel, härten per LED, sind halogenfrei, besitzen einen geringen Modulus für Drahtbonden, sind frei von Isozyanat und besitzen eine niedrige Glasübergangstemperatur. Die verschiedenen Materialien, die für das Glob Top Verfahren eingesetzt werden, unterscheiden sich auch in ihrer Flexibilität und in ihrer Haftkraft.
-
-
- /
-
-
-
- /
-
GSM – digitales Mobilfunksystem
GSM ist ein Mobilfunk Standard, der erstmalig 1991 in Finnland genutzt wurde. GSM ist die Abkürzung von Global System for Mobile Communication und wird auch mit 2G bezeichnet. Das Mobilfunksystem ist nicht nur in Europa verbreitet, sondern weltweit. Dabei handelt es sich um eine von drei Varianten der drahtlosen Telefontechnologien, zu denen auch TDMA und CDMA zählen. Die GSM Technologie komprimiert und digitalisiert Daten und sendet sie danach mit zwei Datenströmen, die ein eigenes Zeitfenster besitzen, über einen Kanal. Die von GSM genutzten Frequenzbereiche lauten 890 bis 915 MHz, 935 bis 960 MHz, 1.710 bis 1.785 MHz sowie 1.805 bis 1.880 MHz. GSM wird jedoch nicht nur für den Mobilfunk genutzt, sondern auch von anderen Technologien, wie zum Beispiel General Packet Radio System (GPRS), High-Speed Circuit-Switched Data (HSCSD), Long Term Evolution (LTE), Enhanced Data GSM Environment (EDGE), sowie Universal Mobile Telecommunications Service (UMTS).
Was bedeutet Global System for Mobile Communication genau?
GSM ist ein weltweit eingesetzter technischer Funkstandard für die digitale Funktelefonie und ist derjenige, der am weitesten verbreitet ist. Der Standard wird nicht nur für die Übertragung von Telefonie genutzt, sondern auch für Datenübertragungen oder für Übertragungen von Kurzmitteilungen. Das Global System for Mobile Communications hat das analoge Mobilfunknetz abgelöst. 1991 erfolgte ein Probebetrieb und im Sommer 1992 gab es dann die ersten GSM Mobilfunknetze. Sie funkten im Bereich von 900 MHz. Etwas später kam dann noch der Frequenzbereich um 1800 MHz dazu.
GSM wurde in den letzten Jahren laufend weiterentwickelt. Dabei handelt es sich um einen Standardisierungsprozess, der kontinuierlich weiterverfolgt wurde. 2000 erfolgte dann die Übergabe an 3GPP, dem 3rd Generation Partnership Project. Das ist eine Kooperation von mehreren weltweiten Standardisierungsgremien für den Mobilfunk. Sie ist verantwortlich für UMTS, GERAN und LTE. In den kommenden Jahren wird das 2G Mobilfunknetz verkleinert werden, allerdings nicht abgeschaltet, denn nach wie vor sind noch viele Geräte auf GSM angewiesen. Nach und nach werden die frei werdenden Frequenzen dann für UMTS (3G) und LTE (4G) genutzt.
Technische Aufbau vom GSM Netz
Generell werden für ein GSM Netz vier Bauteile benötigt:
Ein Mobiltelefon oder mobiles Endgerät, das über eine Antenne und eine Sende- und Empfangseinheit verfügt. Außerdem gibt es ein Mikrofon und einen Lautsprecher. Die Stromversorgung erfolgt mit einem Akku oder mit dem Stromnetz. Mit diesem Gerät besteht die Möglichkeit, mit anderen Teilnehmern zu kommunizieren, indem diese ausgewählt werden. Die Wahl kann über eine Spracheingabe oder über eine Tastatur erfolgen. Darüber hinaus verfügt das mobile Gerät in der Regel über ein Display. Auf dem Bildschirm werden nicht nur Telefonnummern angezeigt, sondern auch Kurznachrichten. Der wesentliche Bestandteil des mobilen Geräts ist aber die SIM-Karte.
Ein Mobilfunksendesystem oder ein Base Station Subsystem ist das zweite Bauteil, das es beim GSM Netz gibt. Es kann aus einer oder mehreren Stationen bestehen, die jeweils eine Antenne besitzen und damit eine oder mehrere Funkzellen versorgen. Mit der Basisstation ist eine zentrale Steuerungseinheit verbunden, die die Funkverbindungen überwacht. Außerdem leitet sie - falls erforderlich - einen Zellenwechsel ein. An den Steuerungseinheiten ist eine Umwandlungseinheit gekoppelt, die dafür verantwortlich ist, dass die von GSM komprimierten Sprachkanäle, aber auch unkomprimierte ISDN Audio Kanäle, umgewandelt werden in ein komprimiertes Audio Codec.
Der dritte Baustein in einem GSM Netz sind das Network Switching Subsystem bzw. das Core Network Subsystem - die Vermittlungseinheiten. Sie sind die Schnittstelle und Vermittlungsstelle zwischen dem jeweiligen Mobiltelefonnetz und dem Funknetz – dem Mobile-Service Switching Centre. Die Informationen über den Teilnehmer werden innerhalb des Mobilfunknetzes von dem Visitor Location Register gespeichert. Das Home Location Register hingegen speichert lediglich Informationen über Teilnehmer, die zur Kundschaft des jeweiligen Eigentümers des Funknetzes zählen. Die Authentifizierung erfolgt im Authentication Centre und die Speicherung der Seriennummern der für den Kontakt genutzten mobilen Endgeräte wird optional im Equipment Identity Register registriert.
Der vierte und letzte Systembaustein ist das Network Management Center bzw. das Operation and Maintenance Center. Hiermit wird das mobile Funknetz überwacht. Dieser Baustein kontrolliert zudem auch die zentrale Steuerungseinheit des Mobilfunksendesystems, die Basisstation sowie das Mobile-Services Switching Centre. Alle Teilnehmer in einem GSM Netz sind mit unterschiedlichen Nummern versehen und adressiert. Dazu ist eine Mobile Subscriber ISDN Number erforderlich. Mit ihr kann der Teilnehmer weltweit erreicht werden. Der Teilnehmer wird innerhalb des Funknetzes mit der International Mobile Subscriber Identity gefunden. Diese ist übrigens auch auf der SIM-Karte gespeichert. Es erfolgt aus Datenschutzgründen allerdings nur eine einmalige Authentifizierung bei der ersten Nutzung. Danach wird ausschließlich die Temporary Mobile Subscriber Identity verwendet. Zu guter Letzt gibt es die Mobile Station Roaming Nummer. Diese kommt dann zum Einsatz, wenn außerhalb des Routings des Mobilfunknetzes telefoniert wird - das sogenannte Roaming.
Der Einsatz von GSM außerhalb der Telefonie
Außerhalb von Telefongesprächen wird GSM auch für die Datenübertragung genutzt. Allerdings liegt die Datenübertragungsrate bei lediglich 14,4 kbit/s und entspricht daher nicht dem üblichen Standard. Das ist auch der Grund, warum Smartphones und Tablet PCs inzwischen andere Mobilfunknetze nutzen. Denn modernere Technologien schaffen eine deutlich schnellere Übertragung. Ursprünglich wurde GSM ausschließlich für die Sprachübertragung entwickelt und ausgelegt, aus dem Grund ist das GSM Mobilfunknetz auch nur bedingt für eine Datenübertragung nutzbar.
Es gibt inzwischen verschiedene Verfahren, die die Datenübertragung verbessern und beschleunigen. Dazu gehört beispielsweise auch das Verbindungsprotokoll X.75. Es sorgt für einen schnelleren Verbindungsaufbau, allerdings sorgt es nicht für eine tatsächliche Verbesserung der Schnelligkeit der Datenübertragung. Aus dem Grund wurde GSM weiterentwickelt mit GPRS und EDGE. Dadurch erfolgt eine Datenübertragung im Paket und es werden Geschwindigkeiten bei GPRS von 56 erreicht und bei EDGE von 150 bis 200 kbit/s.
Weiterführende Informationen:
https://de.wikipedia.org/wiki/Global_System_for_Mobile_Communications
https://www.elektronik-kompendium.de/sites/kom/0910181.htm
Komplizierte Linienmuster für mehr Sicherheit
Bei einer Guilloche handelt es sich kurz gesagt um ein spezielles Linienmuster: Mehrere Linienzüge überlappen einander, verlaufen parallel, kreuzen sich und erzeugen so ein hochkomplexes Muster. Von außen betrachtet, besitzen Guillochen häufig eine ansprechende Ornamentoptik, weshalb sie gern auch in der Kunst eingesetzt werden. Im Zusammenhang mit Wertpapieren und der Chipkartensicherheit sind sie hingegen ein relevantes Sicherheitsmerkmal, das weitestgehend als fälschungssicher eingestuft wird.
Geschichte und Entstehung von Guillochen
Die Entstehung sowie die Geschichte der Guillochen sind aus heutiger Sicht nicht mehr eindeutig zu klären. Vier mögliche Theorien zur Entwicklung der Guillochen sowie deren Namensgebung existieren. Die am häufigsten auftauchende Theorie besagt, dass die Guillochen nach ihrem Erfinder, dem Franzosen Guillot, benannt wurden. Unabhängig von der Entstehungsgeschichte steht eines jedoch fest: Die Guillochen wurden schon vor vielen Jahren als fälschungssicheres Merkmal auf verschiedenen Dokumenten verwendet. Insbesondere Banknoten, Wertpapiere sowie auch Ausweispapiere, Zertifikate und Reisepässe wurden mit den aufwendigen Linienmustern, die häufig die Form von asymmetrisch geschlossenen Ellipsen oder unterschiedlich geformten Kreisbahnen annehmen, bedruckt. In früheren Zeiten wurde hierfür noch eine sogenannte Guillochiermaschine verwendet, bei der die Muster mithilfe von gravierten Druckplatten erzeugt wurden. Schon allein deshalb war es schwer die komplexen Linienornamente ohne weiteres zu fälschen.
Verwendung und Erstellung von Guillochen heute
Guillochen werden auch heute noch als sicherheitsrelevantes Element auf Chipkarten oder Dokumenten verwendet. Je nach Einsatzgebiet werden die Guillochen jedoch nicht mehr mithilfe gravierter Druckplatten hergestellt, sondern unter Berücksichtigung spezifischer Datenbanken und Softwareprogramme am Computer berechnet. Diese Programme bedienen sich verschiedener Linienmustern, um eine Guilloche herzustellen. Unterschieden werden kann hierbei zwischen parallelen Linien, die als Fadenguilloche bezeichnet werden, der Wellenguilloche sowie der Ornamentguilloche. Alle drei Elemente werden miteinander kombiniert. Teilweise existieren heute spezifische Richtlinien, was die Fertigung von Guillochen angeht. So stellt beispielsweise die deutsche Wertpapierbörse in ihren Druckrichtlinien von 1991 vor, dass Guillochen entweder als Positivguillochen oder als Negativguillochen konzipiert werden sollten. Bei den Positivguillochen werden farbige Linien auf eine unbedruckte Fläche aufgebracht, während bei den Negativguillochen die Fläche bedruckt ist und die Linien unbedruckt durch diese Flächen laufen. Darüber hinaus wird zwischen einfarbigen und mehrfarbigen Guillochen unterschieden.
Damit Guillochen als fälschungssicher eingestuft werden können, ist es wichtig, dass die einzelnen Guillochen, sprich Linienmuster, zueinander passen. Die perfekte Genauigkeit, mit der die einzelnen Linien einander überkreuzen, ist schließlich das, was die Guillochen als Sicherheitsmerkmal so attraktiv werden lässt: Diese Genauigkeit lässt sich normalerweise nicht reproduzieren, denn spätestens an den Überschneidungspunkten werden die Linien oft ausgefranst, verdickt oder verschwommen. Darüber hinaus werden zwei- oder mehrfarbige Guillochen häufig durch eine Kombination aus Grund- und Störfarben entwickelt, die es sogar modernsten Auslesegeräten erschwert eine 100%ig genaue Reproduktion herzustellen. Dies wird nicht zuletzt auch dadurch verhindert, dass Guillochen weder einen End- noch einen Anfangspunkt identifizieren lassen. Eine exakte Nachberechnung ist deshalb auch für moderne Softwareprogramme nicht unkompliziert. Ein klassisches Merkmal, anhand dessen sich manipulierte Chipkarten erkennen lassen, sind durchbrochene Guillochen oder Guillochen mit verschwommenen, ausgefransten oder ungleichmäßig verdickten Linien. Auch wenn die Grundmuster der Guillochen asymmetrisch sind, präsentieren sie sich schließlich als vollkommen regelmäßig, weshalb Auffälligkeiten im Zuge von Fälschungen direkt ins Auge springen. Nichtsdestotrotz werden Guillochen beispielsweise auf Chipkarten heutzutage mit anderen Sicherheitsmerkmalen kombiniert, um so einen verstärkten Schutz gewährleisten zu können.
Hairpin-Technologie
Die Hairpin-Technologie ist eine Wickeltechnologie, die unter anderem bei elektrischen Motoren Verwendung findet. Namensgebend für die Technologie sind die Steckspulen, die mit ihrer eckigen U-Form an Haarnadeln – englisch Hairpins – erinnern. Gegenüber der herkömmlichen Spulenwickeltechnik bietet die Hairpin-Technologie entscheidende Vorteile, die sie vor allem für den Einsatz bei Traktionsmotoren in Elektrofahrzeugen attraktiv machen.
Was ist die Hairpin-Technologie?
Die Hairpin-Technologie ist insbesondere in der Automobilindustrie seit einigen Jahren auf dem Vormarsch. Immerhin stellt sie eine zeit- und kostensparende Möglichkeit zur Fertigung von leistungsstarken Elektromotoren dar. Genauer gesagt kommt die Wickeltechnologie beim Stator des Traktionsmotors zum Einsatz. Dieser enthält typischerweise Spulen aus elektrischen Leitern (Kupferdraht), die bis vor kurzem noch aufwendig gewickelt werden mussten. Je nach Dicke des Kupferdrahtes ein arbeitsintensives Verfahren, das viel Zeit in Anspruch nimmt. Dank der Hairpin-Technologie können die kupfernen elektrischen Leiter nun jedoch gesteckt werden: Je nach Fertigungstechnologie werden sie beispielsweise mit einer Druckluftpistole in den Stator eingebracht. Danach müssen die Hairpins nur noch miteinander verdreht und geschweißt werden.
Was sind die Vorteile der Hairpin-Technologie?
Die Hairpin-Technologie bietet bei der Fertigung von Statoren für Elektromotoren gegenüber der gewohnten Spulenwicklung gleich mehrere Vorteile: Durch das beschleunigte Einbringen der Steckspulen in den Stator, verkürzt sich die Fertigungsdauer von Elektromotoren enorm, was wiederum ein zusätzliches Plus auf der Kostenseite beschert. Darüber hinaus können mehr Steckspulen auf engerem Raum gesetzt und miteinander verbunden werden. So erhöht sich der Kupferfüllgrad im Stator, wodurch eine hohe Dauerleistung generiert wird.
Welche Herausforderungen bietet die Hairpin-Technologie?
Die Hairpin-Technologie erweist sich zur Fertigung von Statoren für Elektromotoren in vielerlei Hinsicht als vorteilhaft, geht allerdings auch mit so machen Herausforderungen einher. Allein das Verbiegen (Twisten) und Verschweißen der Hairpins macht den Produktionsprozess kompliziert und fordert innovative Lösungen. Schließlich muss eine Vielzahl an Schweißpunkten in erstklassiger Qualität gefertigt werden. Zudem können die größeren Wickelköpfe der Hairpin-Technologie elektrische Verluste verursachen.
Hologramm – Dreidimensionales Abbild für mehr Sicherheit
Ein Hologramm ist das Ergebnis holografischer Verfahren und Techniken, mit deren Hilfe ein dreidimensionales Abbild oder dreidimensionale Grafiken erstellt werden können. Der Grad der Dreidimensionalität des Abbildes oder der Grafik ist abhängig vom jeweiligen Blickwinkel. Hologramme werden in Kleinstformaten beispielsweise auf Chipkarten eingesetzt, weil sie als fälschungssicher gelten und dank moderner Computertechnologie kostengünstig herzustellen sind.
Das Grundprinzip holografischer Techniken
Holografische Techniken wurden ursprünglich entwickelt, um die Arbeit mit Elektronenmikroskopen zu verbessern. Im Laufe der Zeit erfolgte schließlich eine sukzessive Weiterentwicklung. Das Prinzip holografischer Techniken lässt sich mit Blick auf unterschiedliche Arten von Fotografien erklären: Um eine Schwarzweißfotografie herstellen zu können, ist es wichtig die Intensität des einfallenden Lichtes auf dem Film zu speichern. Bei Farbfotografien werden hingegen zusätzlich zur Intensität auch die Lichtfrequenzen auf dem Film festgehalten. Um nun wiederum ein Hologramm zu erzeugen, muss neben der Intensität (bei farbigen Hologrammen kommt die Lichtfrequenz hinzu) außerdem die sogenannte Phase in Form der Interferenz gespeichert werden. Zur Erklärung: Wenn kohärentes Licht auf ein Objekt trifft, wird dieses Licht vom Objekt reflektiert und gestreut. Die Brechung und Streuung sorgt für die Entstehung eines Wellenfeldes, welches in diesem Fall auch als Objektwelle bezeichnet werden kann. Diese Objektwelle trifft wiederum auf die sogenannte Referenzwelle. Hierbei handelt es sich um das von der Lichtquelle ausgesandte Licht, welches noch ungestreut und ungebrochen ist. Auf diese Weise entstehen zwischen den beiden aufeinandertreffenden Lichtwellen Interferenzmuster, die auf dem Film gespeichert werden. Kurz gesagt: Bei der Erstellung des Hologramms entsteht der dreidimensionale Effekt dadurch, dass die (dreidimensionale) Form des Objekts anhand der Lichtbrechung erkannt und auf das Trägermedium übertragen wird.
Mithilfe dieser holografischen Techniken eine dreidimensionale Aufnahme von einem Objekt zu erstellen, ist relativ aufwendig, weil das Objekt nicht nur über mehrere Minuten komplett unbewegt sein muss, sondern außerdem die Quelle des kohärenten Lichts (Laser) absolut schwingungsfrei aufgestellt zu sein hat. Andernfalls werden die Ergebnisse ungenau und das entstehende Hologramm ist nicht zu gebrauchen. Entsprechend häufig werden heutzutage computergenerierte Hologramme genutzt. Sie bieten einerseits den Vorteil, dass sie deutlich exakter sind und überdies unabhängig vom Objekt berechnet werden können. Diese Form der Hologramm-Erzeugung kommt vor allem bei grafischen Abbildungen zum Einsatz, deren Form sich mathematisch exakt beschreiben lässt. Auch die digitale Holografie bietet schnellere und präzisere Möglichkeiten für die Erstellung von Hologrammen, weil die Rekonstruktion der Abbilder digital erfolgt.
Hologramme als Sicherheitsmerkmal
Hologramme kommen nicht nur in der Kunst oder in der Wissenschaft zum Einsatz, sondern haben ihren Platz als Sicherheitsmerkmal auch im alltäglichen Leben. Viele Chipkarten sind heute mit Hologrammen ausgestattet, weil diese sich als besonders fälschungssicher erweisen. Hergestellt wird das Hologramm auf einer Chipkarte mit einer Kombination aus Lasertechnik und Mehrschichtfolien. Das Hologramm wird entsprechend nicht einfach auf die Karte gedruckt. Der Vorteil: Hologramme können nicht nur schwer ausgelesen werden, sondern sind überdies sehr langlebig, preiswert in der Herstellung und können frei wählbar auf der Kartenoberfläche platziert werden.
In der Praxis werden echte Hologramme häufig mit alternativen Sicherheitsmerkmalen verwechselt: Kinegramme beispielsweise stellen keine dreidimensionalen Abbilder dar, sondern bilden einen zweidimensionalen Bewegungsablauf ab. Ebenfalls etwas gänzlich anderes ist das sogenannte Lenticular. Hierbei handelt es sich um ein Wackelbild, das lediglich für eindrucksvolle Effekte genutzt wird, selbst allerdings keine sicherheitsrelevanten Charakteristika mit sich bringt: Lenticulare oder auch Linsenraster-Bilder können unkompliziert kopiert und nachgedruckt werden.
Druck ohne Berührung
Inkjet ist ein modernes Druckverfahren, das komplett ohne Berührung oder Kontakt zwischen einer Druckvorlage und dem zu bedruckenden Objekt auskommt. Damit steht das Inkjet-Verfahren unter anderem im Gegensatz zum Thermotransfer, bei dem zwischen der speziellen Farbfolie, dem Thermodruckkopf und dem zu bedruckenden Objekt ein Kontakt hergestellt werden muss. Das Inkjet-Verfahren ist Teil digitaler Drucksysteme. Das bedeutet, dass die Übermittlung der Druckvorlage an die Druckeinheit via Computer verläuft. Dadurch sind schnelle und unkomplizierte Umstellungen sowie viele unterschiedliche Druckabläufe hintereinander möglich. Das zweite charakteristische Merkmal für den Inkjet-Druck ist die Arbeit mit Tinten: Diese werden aus einer Düse auf das zu bedruckende Material gespritzt, wobei zwei unterschiedliche Methoden zum Einsatz kommen.
Continuous-Inkjet -Verfahren für besonders schnelle Ergebnisse
Das Continuous-Inkjet-Verfahren kommt vornehmlich im industriellen Bereich zum Einsatz und wird vor allem dann genutzt, wenn Druckergebnisse in einem kontinuierlichen Fluss mit hoher Geschwindigkeit erzeugt werden sollen. Das Vorgehen bei diesem Inkjet-Verfahren ist schnell erklärt: Aus den Düsen des Inkjet-Druckers werden kontinuierlich Tintentropfen gespritzt. So entsteht eine Art Tintenvorhang, wobei jeder einzelne der darin befindlichen Tropfen elektrostatisch aufgeladen ist. Mithilfe von Hochspannungselektroden, die sich vor dem Tintenvorhang befinden, wird parallel dazu ein elektrisches Feld erzeugt. Dieses elektrische Feld ermöglicht es die elektrostatisch aufgeladenen Tintentropfen kontrolliert abzulenken, sodass sie anschließend gezielt und gemäß den Druckvorgaben auf das Trägermaterial treffen.
Drop-on-demand-Inkjet-Verfahren für besonders hohe Auflösungen
Im Gegensatz zum Continuous-Injekt-Verfahren steht beim Drop-on-demand-Inkjet-Druck in erster Linie nicht Schnelligkeit im Fokus, sondern Präzision. Anstelle eines ganzen Vorhangs aus Tinte wird immer nur dann ein Tropfen Tinte aus dem Druckkopf gespritzt, wenn er nach den Vorgaben der Druckvorlage auch tatsächlich benötigt wird. Mit diesem Verfahren sind Auflösungen von 600 dpi unproblematisch zu erreichen. Deshalb kommt dieses Inkjet-Verfahren nicht nur in der Industrie, sondern auch in Privathaushalten bei klassischen Tintenstrahldruckern zum Einsatz. Der Unterschied zwischen industriellen Inkjet-Druckern und gewöhnlichen Haushaltsdruckern, die dieses Verfahren nutzen, ist allerdings klar: Während industrielle Geräte mehrere tausend Düsen beinhalten, um maximale Durchsätze zu erzielen, sind beim Heimdrucker nur wenige Düsen vorhanden, die mehrfach über das Trägermaterial bewegt werden müssen.
Wo liegen die Vorteile beim Inkjet-Druck?
Einige Vorteile, die der Inkjet-Druck gegenüber anderen Verfahren mit sich bringt, wurden bereits erwähnt. Insbesondere das kontaktfreie Bedrucken ist eine der großen Stärken dieses Verfahrens. Dadurch wird es möglich selbst unebene oder druckempfindliche Objekte unkompliziert zu bedrucken. Weiterhin sticht die Schnelligkeit bzw. die Flexibilität beim Inkjet-Verfahren positiv hervor. Da kein Umrüsten erforderlich ist und keine feste Druckform oder Schablone benutzt werden muss, lassen sich deutlich schnellere und vielseitigere Druckergebnisse erzielen. Im Gegensatz zum Thermotransfer bietet dies auch mit Blick auf den Datenschutz Vorteile, da keine theoretisch auslesbaren Schablonen oder Druckformen zurückbleiben. Zu guter Letzt fallen die Druckkosten beim Inkjet-Verfahren vergleichsweise gering aus.
Kunststoffschweißen – Fügeverfahren für Kunststoffe
Das Kunststoffschweißen ist ein sogenanntes Fügeverfahren, bei dem zwei Bauteile aus Kunststoff dauerhaft miteinander verbunden werden. Beim Kunststoffschweißen handelt es sich um eine Alternative zu anderen Fügeverfahren wie etwa dem Kleben oder dem Löten. Eingesetzt wird das Kunststoffschweißen vor allem bei Kunststoffen, die sich nicht oder nur unzureichend miteinander verkleben lassen. Das betrifft zum Beispiel Polypropylen (PP), Polyvinylchlorid (PVC) oder Polyethylen (PE). Wichtig für die Verbindung mithilfe vom Kunststoffschweißen ist, dass die Kunststoffe über thermoplastische Eigenschaften verfügen. Das bedeutet, dass sie (wiederholt) schmelzbar sind und sich anschließend wieder verfestigen. Für das Kunststoffschweißen werden je nach Material und Zielvorgabe unterschiedliche Verfahren berücksichtigt. Zudem müssen abhängig vom zu verschweißenden Kunststoff gewisse Umgebungstemperaturen eingehalten werden.
Die verschiedenen Arten des Kunststoffschweißens
In Abhängigkeit von der Art und Weise wie die Wärme auf den zu verschweißenden Kunststoff einwirkt, lassen sich verschiedene Arten des Kunststoffschweißens voneinander unterscheiden. Bei der industriellen Serienfertigung kommt in erster Linie das Heizelementschweißen zum Einsatz. Bei diesem Schweißvorgang können Erhitzungs- und Fügeprozess voneinander getrennt ablaufen, weil die beiden Fügepartner zunächst über ein Heizelement separat erwärmt und erst anschließend nach Entfernung des Heizelements unter Druck verbunden werden. Alternativ kommt in der industriellen Fertigung häufig auch das Infrarotschweißen zum Einsatz: Bei dieser Form des Kunststoffschweißens werden die zu bearbeitenden Flächen der Fügepartner mithilfe von Infrarotstrahlung erwärmt. Erst im Anschluss daran erfolgt die Verbindung. Eine dritte Variante des Kunststoffschweißens, die in der Industrie eingesetzt wird, ist das Laserstrahlschweißen. Hierbei erfolgt die lokale Erwärmung der Fügepartner über Laserlicht. Dieses Verfahren besitzt den Vorteil, einer sehr geringen, aber gleichzeitig sehr akkuraten Wärmeeinbringung. Bauteile werden dadurch weniger beschädigt und es ergibt sich eine besonders hohe Schweißgeschwindigkeit. Teilweise werden Laserstrahlschweißen und Infrarotschweißen auch miteinander kombiniert. Sofern einer der beiden Fügepartner eine rotationsfähige Form besitzt, kommt auch das Rotationsreibschweißen in Frage: Indem sich der eine Fügepartner dreht, während der andere stillsteht, entsteht aufgrund der Reibung Wärme, die wiederum das Schweißen ermöglicht. Weitere Varianten des Kunststoffschweißens sind das Ultraschallschweißen, das Vibrationsschweißen oder auch das Zirkularschweißen.
Vorteile und Nachteile des Kunststoffschweißens
Bei vielen Kunststoffen, die sich nicht dauerhaft miteinander verkleben lassen, gibt es zum Kunststoffschweißen keine Alternative. Zu achten ist hierbei vor allem auf die passende Schweißtemperatur sowie auf die Sortengleichheit der miteinander zu verbindenden Kunststoffe. Da jeder Kunststoff eine eigene chemische Zusammensetzung besitzt, können zwischen Fügepartnern aus unterschiedlichen Kunststoffen in der Regel keine dauerhaften Verbindungen mithilfe des Kunststoffschweißens hergestellt werden. Darüber hinaus müssen beim Kunststoffschweißen eventuelle Vorbehandlungen an den Oberflächen der Fügepartner durchgeführt werden. Besonders zu achten ist zudem auf die korrekten Schweißtemperaturen: Während Polystyrol eine Temperatur von 270°C bis 310°C verlangt, benötigt Polypropylen lediglich eine Temperatur zwischen 230°C und 280°C. Steigen die Temperaturen beim Kunststoffschweißen über den erlaubten Wert, können die Kunststoffe verbrennen, was nicht nur zu einer dauerhaften Beschädigung des Bauteils führen, sondern auch die Verlässlichkeit der Verbindung zwischen den Fügepartnern beeinträchtigen kann.
Zu den Vorteilen des Kunststoffschweißens gehört ganz klar die Tatsache, dass sich mithilfe der verschiedenen Verfahren dauerhafte Verbindungen zwischen Bauteilen herstellen lassen, bei denen ein Verkleben keine verlässliche Lösung ist. Darüber hinaus sind bei vielen Möglichkeiten des Kunststoffschweißens kurze Arbeitszeiten, punktgenaue Ergebnisse sowie geringe Belastungen der Bauteile gegeben. Das gilt insbesondere für das Laserstrahlschweißen als Variante des Kunststoffschweißens.
Lasermarkieren
Das Lasermarkieren ist eine schnelle und überaus präzise Technik, mit der verschiedene Werkstoffe in großen oder kleinen Stückzahlen markiert bzw. beschriftet werden können. Im Gegensatz zum Laserdruck werden beim Lasermarkieren keine Farbschichten oder Pigmente aufgetragen, sondern es erfolgt eine tatsächliche (punktuelle) Veränderung des Werkstoffs. Hierbei können unterschiedliche Techniken zum Einsatz kommen: Gravieren, Verfärben, Abtragen, Aufschäumen oder Anlassen. Die Auswahl der Technik ist beim Lasermarkieren von verschiedenen Faktoren abhängig. So entscheidet zum Beispiel das zu bearbeitende Material darüber, welche Technik genutzt werden kann.
Welche Techniken gibt es beim Lasermarkieren?
Eine besonders häufig verwendete Technik beim Lasermarkieren ist das sogenannte Anlassen. Hierbei handelt es sich um ein Verfahren, das bei Materialien eingesetzt wird, welche sich unter Temperatureinwirkung verfärben. Mithilfe eines starken Laserstrahls kann ein Temperaturanstieg erzeugt werden, der das Material erwärmt und einen Oxidationsprozess in Gang setzt. Dieser wiederum sorgt für eine verfärbte Oberfläche, also eine Markierung, die sich farblich vom Rest des Werkstoffs abhebt. Mit dieser Art des Lasermarkierens werden in erster Linie Metalle beschriftet. Weitere Möglichkeiten Bauteile dauerhaft, präzise und schnell zu kennzeichnen, bieten das Verfärben und das Aufschäumen. Diese beiden Techniken des Lasermarkierens werden bei Kunststoffen eingesetzt. Das Verfärben funktioniert ähnlich wie das Anlassen bei Metallen: Der Strahl des Lasers erwärmt die Oberfläche des Kunststoffs so stark, dass diese sich zu verfärben beginnt. Beim Aufschäumen wiederum wird die Oberfläche (punktuell) komplett aufgeschmolzen. Dabei entstehen kleine Gasbläschen, die im sich wieder verfestigenden Kunststoff bestehen bleiben. Sie initiieren eine spezielle Lichtbrechung, wodurch die Markierung sichtbar wird. Beim Abtragen sowie beim Gravieren werden dagegen Teile des jeweiligen Werkstoffs abgetragen. Das wird durch besonders starke Laserpulse möglich: Diese gehen mit derart hohen Temperaturen einher, dass der Werkstoff je nach Material zu schmelzen, verdampfen oder sich zu zersetzen beginnt. Was zurückbleibt, ist die Lasermarkierung, die nicht nur sichtbar, sondern auch fühlbar ist.
Welche Vorteile bietet das Lasermarkieren?
Das Lasermarkieren gehört neben dem Etikettieren mittlerweile zu den gängigsten Verfahren in punkto Kennzeichnen und Markieren. Das hat verschiedene Gründe: Da das Verfahren computergestützt ist, erweist es sich als besonders präzise. Auch komplexe Formen bzw. Markierungen können problemlos umgesetzt werden. Darüber hinaus ist das Lasermarkieren für eine Vielzahl von Materialien geeignet: Metalle, Kunststoffe, Glas, Holz oder auch Papier und Pappe können mit den jeweiligen Techniken bearbeitet werden. Ein weiterer Vorteil: Die Ergebnisse sind dauerhaft haltbar. Eine Lasermarkierung lässt sich weder abwischen noch durch Lösungsmittel oder Abrieb entfernen, weil sie im Werkstoff selbst enthalten ist. Darüber hinaus handelt es sich beim Lasermarkieren um ein berührungsloses Verfahren. Dadurch sind Verschleiß und Abnutzung minimal und es können sämtliche Arten von Oberflächen(-formen) bearbeitet werden.
Wo wird das Lasermarkieren genutzt?
Das Lasermarkieren ist ein sehr weit verbreitetes Verfahren, das in unterschiedlichen Bereichen zum Einsatz kommt. Aktuell sehr bekannt ist das Lasermarkieren für die Beschriftung von Obst und Gemüse aus dem Bio-Segment. Hier hilft das Lasermarkieren dabei Verpackungsmaterialien zu vermeiden. Auch in der Montage sowie im OEM-Bereich wird das Lasermarkieren als schnelle und präzise Möglichkeit zur Kennzeichnung von Bauteilen angewendet. Darüber hinaus können Karten- und Passsysteme durch den Einsatz der Lasermarkierung profitieren: Die Lasergravur auf Plastikkarten, die man nicht nur sehen, sondern auch fühlen kann, ist hierfür ein klassisches Beispiel.
Laserschneiden – Mikrometergenau und ohne direkten Kontakt
Das Laserschneiden bzw. Laserstrahlschneiden ist eine Bearbeitungsmöglichkeit für unterschiedliche Werkstoffe. Theoretisch ist die Laserstrahlung geeignet, um (fast) alle Arten von Materialien zu schneiden. In der Praxis erweist sich das Laserstrahlschneiden aber vor allem dort als überaus nützlich, wo eine hohe Materialauslastung und gerade Schnittkanten, die nicht mehr nachbearbeitet werden müssen, gefragt sind.
Wie funktioniert das Laserschneiden?
Für die präzise und punktgenaue Bearbeitung von Werkstücken mithilfe des Laserschneidens sind die besonderen Eigenschaften des Laserlichts verantwortlich. Das in der Laserstrahlquelle der Laserstrahlschneidmaschine erzeugte Licht ist monochromatisch und kohärent. Das bedeutet, dass die Lichtwellen dieses Lichtstrahls nicht nur dieselbe Wellenlänge besitzen, sondern zudem parallel zueinander verlaufen und gleichmäßigen Schwingungen unterliegen. Dadurch wird es möglich die Energie des Laserstrahls deutlich stärker zu bündeln. Mithilfe verschiedener Techniken, wie beispielsweise Lichtleitkabeln oder Umlenkspiegeln und einer Fokussieroptik, wird der Laserstrahl in den jeweiligen Anlagen ausgerichtet und in seiner Intensität verstärkt.
Der gebündelte Laserstrahl wird schließlich gezielt auf das zu bearbeitende Werkstück gerichtet. Dort wo Laserlicht und Werkstück aufeinandertreffen, erhitzt sich das Material derart stark, dass es sich verflüssigt und anschließend verdampft. Ein sogenanntes Prozessgas sorgt dafür, dass das abgetragene Material aus der entstehenden Schnittfuge geblasen wird. In Abhängigkeit davon, in welchem Aggregatszustand sich der abgetragene Werkstoff befindet, wenn er aus der Schnittfuge entfernt wird, wird zwischen drei unterschiedlichen Arten des Laserschneidens differenziert. So gibt es neben dem Laserstrahlschmelzschneiden noch das Laserstrahlbrennschneiden sowie das Laserstrahlsublimierschneiden. Durch die Bewegung des Laserstrahls über die Oberfläche des Werkstücks bzw. durch den Werkstoff hindurch, wird das Material geschnitten.
Was sind die Vorteile beim Laserschneiden?
Die Vorteile beim Laserschneiden sind vielseitig und vor allem im industriellen Bereich von großem Wert. Zum einen bietet das Laserschneiden eine maximale Flexibilität, sodass es auch für die Bearbeitung von einzelnen Werkstücken verwendet werden kann. Darüber hinaus kann das Laserschneiden auf unterschiedlichsten Materialien stets sicher, vielseitig und effizient angewendet werden. So bleiben Materialbrüche und -splitter für gewöhnlich aus, was vor allem aus wirtschaftlicher Sicht überzeugt. Da die Schnittkanten (in Abhängigkeit vom bearbeiteten Material) beim Laserschneiden besonders sauber werden, können zusätzliche Kosten für eine eventuelle Nachbearbeitung in der Regel eingespart werden. Ein weiterer Vorteil: Das Laserschneiden lässt sich mit anderen Verfahren wie etwa dem Stanzen und Nibbeln koppeln.
Der Vollständigkeit halber müssen abschließend auch die Nachteile des Verfahrens erwähnt werden: So sind die Beschaffungskosten für Anlagen zum Laserschneiden relativ hoch. Überdies müssen beim Thema Arbeitsschutz einige Faktoren berücksichtigt werden, ebenso wie es gilt den zu erwartenden Gasverbrauch während des Betriebs der Anlagen einzukalkulieren.
Linearförderer
Ein Linearförderer ist ein System aus dem Bereich der Zuführtechnik, das in erster Linie dem horizontalen Transport von Werkstücken in verschiedenen Größen dient. Der Linearförderer steht damit in einer Reihe mit anderen Komponenten der Zuführtechnik wie zum Beispiel dem Wendelförderer oder dem Steilwandförderer. Im Gegensatz zu anderen Systemen aus diesem Bereich der Fördertechnik, wie etwa einem Transportband, ist der Linearförderer außerdem als sogenannter Schwingförderer zu kategorisieren. Dementsprechend erreicht er den Transport der auf ihm befindlichen Werkstücke mithilfe von linearen Schwingungen. Experten sprechen deshalb beim Linearförderer mitunter auch von einer Schwingungsmaschine.
Wie funktioniert ein Linearförderer?
Ein Linearförderer ähnelt im Grunde genommen einer Art Vibrationseinrichtung, bei dem Werkstücke oder auch Schüttgut in verschiedenen Größen über ein geradliniges Förderorgan mithilfe von vibrationsartigen Schwingungen aus einem Behälter hin zum Zielpunkt transportiert wird. Das Förderorgan gleicht dabei in der Regel einem Transportrohr oder einer Transportrinne und kann in der Größe an die zu transportierenden Werkstücke angepasst werden. Der Verlauf des Förderrohrs oder der Förderrinne ist immer horizontal. Das bedeutet, dass der Linearförderer ausschließlich über eine Ebene hinweg transportieren kann. Bisweilen ist es möglich das Förderorgan um bis zu zehn Grad aufwärts oder abwärts zu neigen, um so auch kleinere Distanzen vertikaler Ausrichtung zu überwinden.
Um die Werkteile zu transportieren, bewegt sich der Linearförderer bzw. die Förderrinne mit kleinen, ruckartigen Bewegungen in die Richtung, in die der Transport erfolgen soll, sowie gleichzeitig nach oben. Bei dieser Bewegung wird das Schüttgut gewissermaßen mitgenommen: Es hebt gemeinsam mit der Schüttrinne ab. Wenn die Schüttrinne sich anschließend wieder nach unten und zurück bewegt, bleibt das Schüttgut dagegen aufgrund der Massenträgheit stehen, bzw. fällt nach unten. So wird es mit jeder Schwingung ein Stück weiter nach vorn geschoben. Wie schnell der Transport auf dem Linearförderer erfolgt, ist abhängig von der Schwingfrequenz und kann individuell eingestellt werden.
Was sind die Vorteile von Linearförderern?
Linearförderer können überall dort eingesetzt werden, wo Werkstücke zuverlässig von A nach B transportiert werden müssen. Dank individueller Einstellungsmöglichkeiten lässt sich die Transportgeschwindigkeit anhand der Schwingfrequenz individuell regulieren. Gleichzeitig ist der Linearförderer auf Werkstücke in verschiedenen Größenordnungen anpassbar: Von kieselsteingroßem Schüttgut bis hin zu Gut mit staubiger Körnung kann alles mit dem Linearförderer transportiert werden. Die Fördereinrichtung gilt insgesamt als sehr langlebig, robust und wartungsarm. Darüber hinaus kommen Stauungen oder Verstopfungen nur selten vor, da diese durch die Schwingbewegungen normalerweise schnell von allein wieder gelöst werden können. Der Transport auf einem Linearförderer erfolgt außerdem besonders schonend und auch über längere Strecken reibungslos. Mitunter werden Linearförderer als Puffer- oder Staustrecken in komplexen Anlagen zwischengeschaltet, um einen reibungslosen Ablauf der Produktionskette zu ermöglichen.
NC-Technik: Langjähriger Standard in der Maschinensteuerung
Die NC-Technik revolutionierte die Steuerung von Maschinen zum ersten Mal in den 1940er Jahren. Eingeführt wurde sie zunächst in der Flugzeugindustrie, später waren es vor allem Werkzeugmaschinen, die mit der NC-Technik ausgestattet arbeiteten. Hinter der Abkürzung verbirgt sich das Konzept der Numerischen Steuerung (auf Englisch Numerical Control), welches es ermöglicht beispielsweise Werkzeugmaschinen über eine Datencodierung zu steuern. Die hierfür benötigten Codes befinden sich auf einem Datenträger (zum Beispiel Lochstreifen), der von der Maschine ausgelesen wird. Der Vorteil: Im Gegensatz zur manuellen Steuerung der Maschine sind Arbeitsprozesse mit NC-Technik deutlich beschleunigt und präzisiert.
Wie funktioniert die NC-Technik?
Die NC-Technik galt bis zum Ende der 1970er Jahre als weit verbreiteter Standard, ist mittlerweile aber bereits seit einigen Jahren überholt. Das Aufkommen der CNC-Technik hat die Steuerung von Werkzeugmaschinen noch einmal zusätzlich erleichtert, die Geschwindigkeit maximiert und die Präzision der Arbeiten erhöht. Die NC-Technik zeigt sich entsprechend deutlich simpler: Relativ einfach gehaltene Codes werden von der Maschine vom Datenträger ausgelesen und in Bewegungen übersetzt. Die ersten Maschinen konnten ausschließlich binäre Befehle befolgen, während bei den letzten Maschinengenerationen mit NC-Technik auch umfangreichere Steuerungen möglich waren.
Was waren die Vorteile der NC-Technik?
Weil die reine NC-Technik inzwischen als überholt gilt, sind die Vorteile aus heutiger Sicht limitiert. Im Vergleich zur manuellen Steuerung sind die Pluspunkte für Herstellung und Produktion großer Stückzahlen von Bauteilen und Werkstücken aber noch heute deutlich erkennbar: Dank numerischen Steuerung wurde die Bedienung der Maschinen signifikant beschleunigt. Sie musste nicht mehr von Hand bewegt und in die richtige Position gebracht werden, sondern selbst komplexe Bewegungsabläufe waren vollautomatisch möglich. Gleichzeitig konnten dadurch zum Beispiel Werkstücke präziser angefertigt werden und die Fehleranzahl wurde reduziert. Ein dritter Vorteil: Weil sich die Datenträger relativ schnell und unkompliziert austauschen ließen, konnten die Maschinen mit geringem Arbeitsaufwand auf neue Aufgaben eingestellt werden.
Nibbeln
Beim Nibbeln handelt es sich um ein Fertigungsverfahren, welches bei der Blechbearbeitung eingesetzt wird. Die Ähnlichkeiten zum Stanzen und Scherschneiden sind unverkennbar, denn beim Nibbeln werden vorrangig einfache oder komplexe Formen aus einem Blech geschnitten bzw. genibbelt. Dabei zeigt das Nibbeln in einigen Bereichen deutliche Vorteile gegenüber dem Stanzen sowie dem Scherschneiden. Große Einsatzmöglichkeiten ergeben sich mit modernen CNC-Maschinen sowie dank Sonderwerkzeugen und Kombinationsmaschinen.
Was ist Nibbeln?
Das Nibbeln funktioniert im Prinzip ganz ähnlich wie das Stanzen, weshalb es häufig auch als „Stanzen mit Nachsetzen“ bezeichnet wird: Der zu bearbeitende Werkstoff (Blech) wird in den einseitig offenen Nibbler eingeführt, sodass er zwischen Stempel und Matrize liegt. Ähnlich wie bei einem Stanzer werden Stempel und Matrize anschließend zusammengeführt, wobei der Werkstoff geschnitten wird. Anders als der Stanzer setzt der Nibbler jedoch nach und „knabbert“ regelrecht kleine Stücke aus dem Werkstoff heraus. Daher wird das Nibbeln umgangssprachlich häufig auch „Knabbern“ genannt. Im Gegensatz zum Stanzer, mit dem lediglich eine vorgegebene Form aus dem Werkstück gestanzt werden kann, erlaubt das Nachsetzen beim Nibbeln beliebig große und verschiedenartige Formen aus dem Werkstoff zu schneiden. Dies wird dadurch unterstützt, dass das Blech beim Nachsetzen, wenn sich Stempel und Matrize voneinander lösen, gedreht und verschoben werden kann.
Welche Vorteile bietet das Nibbeln?
Gegenüber dem Stanzen bietet das Nibbeln den Vorteil einer größeren Flexibilität: Ein Stanzer kann jeweils nur eine vorgegebene Form schneiden. Um mit einem Stanzer mehrere unterschiedliche Formen aus einem Werkstoff zu schneiden, ist eine gewisse Umrüstzeit erforderlich. Zudem sind die Stanzformen in ihrer Größe beschränkt. Beim Nibbeln fallen diese beiden Begrenzungen weg: Durch das Nachsetzen sowie das variable Verschieben des Werkstoffs können beim Nibbeln sämtliche Formen sowie unterschiedliche Größen in das Blech geschnitten werden. Gleichzeitig entfallen sämtliche Umrüstzeiten. Das Nibbeln bietet überdies viele Möglichkeiten zur Kombination mit anderen Techniken und Werkzeugen, wie beispielsweise Laserschneiden oder Schlagschere.
Ein Nachteil kann sein, dass beim Nibbeln oft sichtbare Abdrücke im Werkstoff hinterlassen werden. Sie erinnern an eine Art Riffelmuster, welches unter Umständen in einem nachfolgenden Arbeitsschritt entfernt werden muss. Darüber hinaus ist es beim Nibbeln von Innenausschnitten notwendig eine Vorbohrung durchzuführen, um den Nibbler an der entsprechenden Stelle ansetzen zu können.
Wo wird das Nibbeln eingesetzt?
Für das Nibbeln existieren Handwerkzeuge genauso wie motorbetriebene Werkzeugmaschinen oder auch Sonderwerkzeuge, CNC-gesteuerte Maschinen und Kombinationswerkzeuge. Der Einsatz des Nibbelns erfolgt überall dort, wo Bleche geschnitten werden müssen. Beispiele sind die Herstellung von Computergehäusen sowie Schaltschränken (hier häufig unter Einsatz von Sonderwerkzeugen).
OCR/OCV – Lesung der Klarschrift mit einer Kamera
OCR ist die englische Abkürzung für Optical Character Recognition und OCV steht für Optical Character Verification. Übersetzt auf Deutsch bedeutet dies so viel wie Klarschrift Lesung bzw. Klarschrift Überprüfung. Während es früher erforderlich war für die Maschinenlesung eine bestimmte Schriftart zu nutzen, ist dies heute nicht mehr nötig. Ein gutes Beispiel sind die Reisepässe, die eine maschinenlesbare Zeile besitzen und daher exakt mit diesem Schrifttyp gedruckt werden mussten. In den letzten Jahren wurden die OCR Systeme weiterentwickelt, sodass heute Dinge möglich sind, an die vor einiger Zeit noch gar nicht zu denken war. Heute kann OCR aufgrund der Normierung der Windows Schriftarten zuverlässig und ohne Training bei Schriftstücken eingesetzt werden. Es ist sogar möglich enge Proportionalschriften einzulesen. Ein modernes OCR System ist in der Lage, das Format eines Textes zu erkennen, sodass selbst mehrspaltige Dokumente automatisch weiterverarbeitet werden können.
Was ist OCR eigentlich?
Die optische Zeichenerkennung (OCR) ist eine Technologie, bei der verschiedene Dokumente in durchsuchbare und bearbeitbare Dateien umgewandelt werden. Das können beispielsweise PDF Daten sein, Papierdokumente, aber auch Digitalbilder. Wer nun relevante Informationen aus einer Broschüre, einem Zeitungsartikel oder auch einem Vertrag herausziehen möchte, um diese beispielsweise im Word Format wiederzugeben oder in einer Excel Datei zu bearbeiten, der kann hierfür nicht einfach nur einen Scanner verwenden. Denn der Scanner gibt lediglich eine Kopie bzw. ein Bild des Dokuments aus. Dabei handelt es sich um eine Ansammlung von Pixeln, demnach Bildpunkten, die weiß, schwarz oder farbig sein können. Möglich sind natürlich auch Tabellen oder Rastergrafiken.
Um diese Dokumente auslesen und weiterverarbeiten zu können wird OCR Software benötigt. Sie macht aus Dokumenten, PDF oder Digitalbildern Wörter und Sätze. Dadurch können Informationen lesbar und durchsuchbar gespeichert werden. Außerdem ist eine weitere Bearbeitung möglich.
Texterkennung in der Praxis
Die meisten optischen Eingabegeräte, wie zum Beispiel Digitalkameras, Scanner oder Faxe können ausschließlich Rastergrafiken ausgeben. Das bedeutet, dass die in den Spalten und Zeilen angeordneten Punkte unterschiedlich gefärbt sind, die sogenannten Pixel. Bei der Texterkennung müssen Buchstaben aber auch als Buchstaben erkennbar sein. Denn sie müssen identifiziert werden, um ihnen anschließend einen Zahlenwert zuzuordnen, der ihnen nach einer Textkodierung zugewiesen wird. Wie zum Beispiel durch Unicode oder ASCII.
Im deutschen Sprachgebrauch werden die Begriffe OCR und automatische Texterkennung als Synonym verwendet. Dies ist allerdings falsch. Denn technisch gesehen beschreibt OCR die Erkennung von einzelnen Zeichen in separierte Bildteile. Dem geht eine Erkennung der Strukturen voraus, indem zunächst Textblöcke von den grafischen Elementen abgegrenzt werden. Anschließend werden die Zeilenstrukturen erkannt und Einzelzeichen separiert. Die Entscheidung, um welches Textzeichen es sich handelt, wird über bestimmte Algorithmen vorgenommen, bei denen ein sprachlicher Kontext Berücksichtigung findet.
Früher war es hierfür erforderlich, dass speziell entworfene Schriftarten für die automatische Texterkennung verwendet werden. Jeder hat bestimmt noch die untere Zeile in einem Scheckformular in Erinnerung. Diese Schriftart war so gestaltet, dass die Zeichen von einem speziellen OCR Lesegerät ohne großen Rechenaufwand und sehr schnell unterschieden und eingelesen werden konnten. Die verwendete Schriftart nannte sich OCR-A und zeichnete sich dadurch aus, dass sehr ähnliche Zeichen, wie zum Beispiel die Null und das große O, so gedruckt wurden, dass sie sich nicht mehr ähnlich waren. Dahingegen ähnelte OCR-B einer nicht proportionalen und serifenlosen Schriftart. OCR-H hingegen war handgeschriebenen Buchstaben und Ziffern nachempfunden. Dadurch, dass moderne Computer immer leistungsfähiger sind und es nun auch verbesserte Algorithmen gibt, ist es inzwischen möglich, dass auch ganz normale Schriftarten vom Drucker und sogar Handschriften erkannt werden können.
Das kann moderne OCR Software leisten
Moderne Texterkennungs-Software ist inzwischen in der Lage, eine Kontextanalyse durchzuführen. Mithilfe von ICR (Intelligent Character Recognition) kann das Ergebnis korrigiert werden und dadurch wird ein Zeichen, das ursprünglich als Zahl 8 erkannt wurde, beispielsweise automatisch in ein B umgewandelt, da es innerhalb von einem Wort steht. Aus 8uchstaben wird so Buchstaben.
Texterkennung wird vor allem von größeren Unternehmen verwendet, zum Beispiel wenn es darum geht, den Posteingang automatisch zu verarbeiten. Belege müssen beispielsweise im Posteingang sortiert werden. Für diese Aufgabe es ist aber nicht erforderlich, den kompletten Inhalt zu analysieren. Stattdessen reicht es in der Regel, nach groben Merkmalen zu unterscheiden. Das kann zum Beispiel ein ganz bestimmtes Layout von Rechnungen oder Formularen sein, ein Firmenlogo oder andere charakteristische Merkmale. Die Klassifikation erfolgt dann über eine Mustererkennung, die sich auf die definierten Stellen und nicht auf das gesamte Dokument bezieht.
Vorteile von OCR
OCR wird vor allem deshalb eingesetzt, um bei der Erstellung unterschiedlichster Dokumente Zeit und Kosten einzusparen. Dies gilt auch der weiteren Verarbeitung und der Wiederverwendung. Mit einer OCR Software wird ein Papierdokument eingescannt, um es später zum Beispiel in einem Word Dokument oder in einer Excel Datei zu bearbeiten und danach weiterzuleiten. Außerdem ist es möglich Textstellen aus Zeitschriften und Bücher zu übernehmen und in eigene Dokumente, Arbeitspapiere und Studien zu verwenden, ohne das Zitat oder die Textstelle abtippen zu müssen.
Sogar von unterwegs ist es mithilfe einer einfachen Handy Kamera heutzutage möglich, Texte von Fahrplänen, Postern oder Bannern zu erfassen und die daraus resultierenden Informationen in einem Dokument weiter zu verwenden. Das gleiche gilt natürlich auch für Textstellen aus Bücher und Papierdokumente, wenn gerade einmal kein Scanner vorhanden ist. Außerdem kann die Software dafür genutzt werden, durchsuchbare Archive zu erstellen. Moderne Programme arbeiten inzwischen so schnell, dass die Datenumwandlung nur wenige Sekunden dauert.
weiterführende Informationen:
-
-
- /
-
Aufheben, Positionieren und Ablegen
Pick and Place lässt sich auf Deutsch in etwa mit "aufnehmen und platzieren" übersetzen. Es handelt sich hierbei um einen der innerhalb von Fertigungsprozessen am häufigsten ausgeführten Arbeitsschritte. Meist kommen Pick and Place Aufgaben mehrfach sowie in unterschiedlichen Abschnitten innerhalb einer Produktionskette vor. Pick and Place Aufgaben können sowohl manuell als auch teil- oder vollautomatisiert durchgeführt werden. Die manuelle Durchführung ist dabei selbst bei kleinen Fertigungen heute immer seltener anzutreffen. Das liegt unter anderem daran, dass manuell ausgeführte Pick and Place Aufgaben zeitintensiv und dementsprechend wenig effizient sind. Teil- oder vollautomatisierte Pick and Place Prozesse erweisen sich demgegenüber als deutlich schneller, verfügen über eine geringere Fehlerquote und sind damit insgesamt um ein Vielfaches wirtschaftlicher.
Wo kommen Pick and Place Aufgaben vor?
Das Thema Pick and Place ist überaus vielseitig. Grundsätzlich sind alle Aufgaben, bei denen ein Gegenstand aufgehoben und an anderer Stelle platziert wird, als Pick and Place Aufgaben zu bezeichnen. Das Umpacken oder Sortieren von Werkstoffen oder Waren würde dementsprechend genauso in den Pick and Place Bereich fallen, wie die Bestückung von Leiterplatten mit SMD-Komponenten. Häufig werden Pick and Place Aufgaben jedoch weiter unterteilt und in ihrer Bezeichnung spezifiziert. So spricht man beispielsweise alternativ auch vom Palettieren oder Handling. Pick and Place Aufgaben kommen in allen industriellen Bereichen vor – von der Automobilbranche bis hin zur Lebensmittelindustrie.
Welche Möglichkeiten für automatisierte Pick and Place Aufgaben gibt es?
Pick and Place Aufgaben werden normalerweise mithilfe von Robotern automatisiert. Diese können auf unterschiedliche Arten konstruiert und damit für verschiedene Pick and Place Aufgaben spezifiziert sein. Die meisten Pick and Place Roboter bestehen im Wesentlichen aus einer Art Arm, der die monotonen Aufgaben in einem festgelegten Rhythmus sowie einer genau definierten Geschwindigkeit ausführt. Die Hersteller von Pick and Place Robotern können diese vorn vornherein auf die konkreten Anforderungen der Aufgaben zuschneiden. Alternativ ist das Umprogrammieren und Umrüsten bei flexiblen Pick and Place Robotern möglich. Da die Pick and Place Roboter mit zahlreichen Sensoren ausgestattet sind, können sie sogar komplexe Pick and Place Aufgaben binnen kürzester Zeit bewältigen. So ist es zum Beispiel möglich, dass ein Pick and Place Roboter aus einer Auswahl von Pralinen, eine vorgegebene Anzahl unterschiedlicher Pralinen heraussortiert und in einer Pralinenschachtel platziert.
Wo liegen die Vorteile von Pick and Place Robotern?
Wenn Mitarbeiter monotone Aufgaben Tag für Tag ausüben, ist dies nicht nur der Motivation und Leistung wenig zuträglich, sondern kann auch gesundheitliche Folgen für die Angestellten haben. Gleichzeitig ist die manuelle Bewältigung von Pick and Place Aufgaben aus wirtschaftlicher Sicht unrentabel, weil Präzision und ein zügiges Tempo nicht dauerhaft gewährleistet werden können. Bei all diesen Problemen schafft ein Pick and Place Roboter Abhilfe: Er führt die ihm zugeteilten Pick and Place Aufgaben nicht nur schneller und präziser, sondern auch dauerhaft im gleichbleibenden Tempo aus. Eine überzeugende Wiederholgenauigkeit ist in diesem Zusammenhang von Bedeutung. Darüber hinaus können Pick and Place Roboter individuell konstruiert und damit in verschiedenen Umgebungen eingesetzt werden. Moderne Modelle fallen dabei besonders positiv auf, da sie meist mit einem einfach verständlichen Bedienprogramm ausgestattet sind und sich dank intuitiver Software bei Bedarf umrüsten lassen.
Radar
Die Radartechnologie wird in der Industrie vielfach eingesetzt. Mit ihrer Hilfe lassen sich Produktionsanlagen und Maschinen effizienter überwachen und steuern. So werden Radare bzw. die Radartechnologie unter anderem für Füllstands- und Verschleißmessungen, aber auch für die Messung von Schichtdicken sowie Distanz- und Dimensionsmessungen genutzt. Damit die radarbasierten Messgeräte eindeutige sowie verlässliche Informationen liefern, ist ein optimal abgestimmtes Zusammenspiel aus Frequenz und Bandbreite notwendig. Die Herausforderung dabei: Auch unter erschwerten oder veränderlichen Bedingungen muss der Radar stets zuverlässige Ergebnisse erbringen.
Wie funktioniert ein Radar?
Die Funktionsweise eines Radars ist recht simpel zu erklären. Ein Radar ist normalerweise Sender (Antenne) und Empfänger (Sensor) in einem. Die Antenne sendet Impulse in Form elektromagnetischer Wellen aus. Treffen diese auf ein Objekt, werden sie reflektiert und als Echo zurückgeworfen. Diese zurückgeworfenen Wellen werden vom Sender aufgenommen und ausgewertet: Anhand des Echos können beispielsweise Rückschlüsse auf die Distanz oder die Größe des Objekts gezogen werden. Je differenzierter die Radartechnologie arbeitet, umso umfassender sind die Informationen, die mithilfe dieser Messtechnik erbracht werden können. Modernste Radarscanner sind sogar in der Lage durch optische Hindernisse hindurch zu messen. Das ist in der Industrie ganz besonders wichtig: So ermöglicht die innovative Radartechnologie beispielsweise die Füllstandsmessung auch durch Verpackungen, während Distanzmesser beispielsweise sogar bei Rauch, Staub oder anderen Sichtbehinderungen zuverlässig funktionieren. Dabei gilt: Für eine bestmögliche räumliche Auflösung bzw. Messergebnisse braucht es eine möglichst hohe Frequenz und Bandbreite der Mikrowellen. Besonders bewährt haben sich deshalb Systeme, die sich individuell an die spezifischen Aufgabenparameter anpassen lassen.
Wo wird die Radartechnologie genutzt?
Außerhalb des industriellen Bereichs nutzt man die Radartechnologie vor allem im Schiffs- und Flugverkehr. In der Industrie kommen Radare in verschiedenen Formen und Einsatzbereichen vor. Besonders bekannt ist die Füllstandmessung mithilfe der Radartechnologie: Hierbei sendet das Messgerät elektromagnetische Wellen aus und wird vom Füllgut (fest oder flüssig) zurückgeworfen. Anhand des Echos ermittelt das Gerät anschließend, die Entfernung vom Sensor zum Füllgut und kann so den konkreten Füllstand angeben. Ein weiterer prominenter Einsatzbereich der Radartechnologie betrifft die Sicherheit in der Zusammenarbeit zwischen Mensch und Maschine: Überall dort, wo Industrieroboter und Menschen absperrungsfrei aufeinandertreffen, ergeben sich potentielle Sicherheitsgefahren. Die Radarüberwachung kann selbst sich bewegende Objekte registrieren und vermittels präziser Abstandsmessung genauestens im Raum verorten. An diese Radargeräte gekoppelte Sicherheitsfunktionen von Maschinen können helfen Unfälle konsequent zu verhindern. Weitere Bereiche, in denen die Radartechnologie bzw. Radarmessungen eingesetzt werden, sind: Auffinden von fehlerhaften Stellen oder Fremdkörpern in Produkten, Verschleißmessungen, Vermessung von Werkstücken, Schichtdickenmessung, Schweißnahtprüfung und vieles mehr.
Vor- und Nachteile von Radarmessungen
Radarmessungen können nur dann zuverlässige Ergebnisse liefern, wenn sie an die zugedachten Aufgaben angepasst sind. Dafür liegen die Anschaffungskosten für Radarmessgeräte teilweise über denen anderer berührungsloser Messtechnologien. Allerdings gilt: Gegenüber optischen Sensoren, wie etwa Laserscannern, hat die Radartechnologie den deutlichen Vorteil, dass sie auch unter erschwerten Sichtbedingungen funktioniert. Gerade im industriellen Bereich, wo Staub, Rauch und Co. an der Tagesordnung sind, bringen Radarmessgeräte deutlich verlässlichere Ergebnisse. Weitere Vorteile: Im Vergleich zu weiteren Messverfahren, wie etwa dem Röntgen, ist die Radartechnologie gesundheitlich vollständig unbedenklich, sehr wartungsarm und unkompliziert in der Bedienung.
Röntgen
Beim Röntgen zum Zwecke einer Materialprüfung spricht man häufig auch von einer Röntgenprüfung oder einer Durchstrahlungsprüfung. Das Röntgen gilt als zerstörungsfreie Werkstoffprüfung und wird eingesetzt, um Bauteile auf ihre Qualität zu prüfen. Das bildgebende Verfahren liefert Aufschluss über sogenannte Volumenfehler in einem Werkstoff oder Bauteil. Das können beispielsweise Risse, Lunker oder Einschlüsse sein. Unterschieden werden kann zwischen dem konventionellen Röntgen sowie der modernen digitalen Röntgenprüfung.
Wie funktioniert das Röntgen?
Das Röntgen im Zuge einer Durchstrahlungsprüfung basiert auf demselben Prinzip wie das medizinische Röntgen beim Arzt: Charakteristisch für Röntgenstrahlen sind kleine Wellenlängen, die bei hoher Frequenz (Energie) Materie durchdringen können. Vereinfacht gesagt gilt dabei: Je dichter die Materie, umso schwerer fällt es den Strahlen diese zu durchdringen. Im Umkehrschluss bedeutet dies, dass Materialien mit einer geringeren Dichte einfacher von Strahlung durchdrungen werden können. Für eine Materialprüfung macht man sich dies folgendermaßen zunutze: Das zu prüfende Bauteil oder Material wird mit Röntgenstrahlen bestrahlt. Hinter dem Prüfling wiederum befindet sich ein geeigneter Film, der die durchdringende Strahlung auffängt. Dabei entsteht ein auslesbares Bild mit unterschiedlichen Hell-/Dunkelfärbungen: Je dunkler das Bild gefärbt ist, umso mehr Strahlung konnte den Prüfling an dieser Stelle durchdringen. Helle Bereiche hingegen zeugen davon, dass in diesen Bereichen nur wenig Strahlung durchdringen konnte. Das bedeutet, dass der Prüfling an diesen Stellen dicker oder dichter ist. Bei der digitalen Röntgenprüfung erfolgt die Auslesung der Ergebnisse mithilfe von Detektoren und einer passenden Software.
Wo wird das Röntgen genutzt?
Zur Materialprüfung werden das Röntgen bzw. die Röntgenprüfung in vielen unterschiedlichen Branchen verwendet. Neben der Prüfung von Dichtheit und Dicke von Werkstoffen ist es vor allem auch zur Kontrolle von Schweißnähten geeignet – Einschlüsse und Co. lassen sich hierbei eindeutig zutage fördern. Branchen, in denen das Röntgen als Standardmessverfahren eingesetzt wird, sind beispielsweise die Automobilindustrie, Luftfahrt und Schiffbau ebenso wie Maschinenbauunternehmen. Immer häufig werden Röntgenverfahren auch in der Lebensmittelindustrie eingesetzt. Hier dient die Röntgenprüfung vorrangig dazu, Verunreinigungen in Lebensmitteln aufzuspüren, bevor diese in den Handel gelangen.
Vor- und Nachteile des Röntgens
Genauso wie andere Prüfverfahren bringt auch das Röntgen verschiedene Vor- und Nachteile mit sich. Ein großer Vorteil der Durchstrahlungsprüfung besteht darin, dass verdeckte Bauteile prüfbar sind. Dabei lässt die Prüfung unmittelbar Größe und Form der fehlerhaften Stelle erkennen, sodass eventuelle Nachbesserungen schneller und direkter möglich werden. Die Kehrseite der Medaille ist jedoch, dass Röntgen nur für Materialien mit einer begrenzten Dicke nutzbar ist: So können Röntgenstrahlen beispielsweise Stahl nur bei einer maximalen Dicke von 300 mm sowie Leichtmetall von bis zu 400 mm durchdringen. Bei Kupfer sind es sogar nur 50 mm. Darüber hinaus ist der Schulungsaufwand mitunter groß und es muss gegebenenfalls in entsprechenden Strahlenschutz investiert werden.
Kontaktlose Bearbeitung härtester Materialien
Das sogenannte Senkerodieren bzw. die Senkerosion ist ein Verfahren, das im Bereich des Funkenerodierens bzw. der Funkenerosion einzuordnen ist. Dieses Verfahren basiert auf den bereits im 17. Jahrhundert aufgestellten wissenschaftlichen Theorien rund um die erodierende Kraft elektrischer Ladungen. Die Funkenerosion im Allgemeinen sowie das Senkerodieren im Speziellen ermöglichen heute die punktgenaue Bearbeitung elektrisch leitfähiger Materialien. Sofern diese sich mit anderen Techniken nicht oder nur unzureichend (präzise) bearbeiten lassen, kann das Senkerodieren für Abhilfe sorgen. Im Fokus steht beim Senkerodieren vor allem die Herstellung von Spritzgießformen und Druckgussformen.
Senkerodieren – Metallbearbeitung mit elektrischer Ladung
Beim Funkenerodieren werden in erster Linie Metalle bearbeitet, die über eine elektrische Leitfähigkeit verfügen. Über ein sogenanntes Elektrodenwerkzeug werden Funken erzeugt, die wiederum auf das Werkstück überschlagen und dort eine kontrollierte Abtragung des Materials hervorrufen. Der komplette Prozess findet in einem nicht leitfähigen Medium statt, das auch als Dielektrikum bezeichnet wird. Normalerweise werden hierfür Wasser oder Öl verwendet. Die funkenerodierenden Verfahren setzen sich aus vier verschiedenen Varianten zusammen: Bohrerodieren, Drahterodieren, Scheibenerodieren und Senkerodieren.
Beim Senkerodieren muss zunächst eine speziell gestaltete Elektrode hergestellt werden. Diese hat die negative Form derjenigen Oberfläche, die später am Werkstück erzeugt werden soll. Im mit dem Dielektrikum angefüllten Bad wird die Elektrode bis auf einen winzigen Spalt von weniger als einem Millimeter an das Werkstück herangeführt. Erst dann beginnt die Funkenerzeugung, die dafür sorgt, dass das Material gemäß der vorgegebenen Form auf der Oberfläche des Werkstücks abgetragen wird. Die Größe des Funkenspaltes, aber auch weitere Paramater wie Intensität, Frequenz oder Dauer der Entladungen haben eine Auswirkung auf die Abtragungsstärke am Werkstück und müssen dementsprechend exakt eingestellt werden.
Vorteile und Nachteile beim Senkerodieren
Mithilfe des Funkenerodierens lassen sich sehr harte Werkstoffe präzise mechanisch bearbeiten. Auch komplexe und sehr feine Oberflächen können so am Werkstück realisiert werden. Die Umsetzung von Spritzgießformen und Prototypen ist dementsprechend eines der am weitesten verbreiteten Einsatzgebiete des Senkerodierens. Das Senkerodieren bringt zudem den Vorteil mit sich, dass es die Grenzen der anderen Varianten des Funkenerodierens aufweicht: Kann das Drahterodieren beispielsweise in erster Linie schneiden, kommt das Senkerodieren in gewisser Form eher einem Pressen gleich, bei dem tatsächlich nur der voreingestellte und durch die Elektrode vorgegebene Oberflächenteil des Werkstücks bearbeitet wird.
Nachteile des Senkerodierens liegen unter anderem in der aufwendigen und zeitintensiven Herstellung der Elektroden sowie deren Abnutzung während der Benutzung. Häufig wird es wegen des sogenannten Abbrands (Erosion an der Elektrode) notwendig das Werkstück in mehreren Schritten zu bearbeiten bzw. nachzubearbeiten. Zudem ist das komplette Verfahren auf Werkstücke begrenzt, die über eine elektrische Leitfähigkeit verfügen.
Vielseitig bei der Blechbearbeitung
Das Stanzen ist ein Trennverfahren, welches die meisten aus dem privaten bzw. beruflichen Umfeld kennen: Ein Locher, mit dem sich kleine Kreise aus einem Stück Papier heraustanzen lassen, funktioniert nach diesem Prinzip. Mithilfe komplexer Stanzmaschinen wird das Stanzen auch in der Industrie genutzt, wo es vor allem bei der Blechbearbeitung zum Einsatz kommt. Sowohl in der Medizin- und Lebensmitteltechnik als auch in der Elektro- und der Automobilindustrie gehört das Stanzen zu den gängigen Verfahren innerhalb der Produktionskette. Neben Blech können noch andere Materialien wie zum Beispiel Karton und Wellpappe oder andere Nichtmetalle gestanzt werden. Hierbei werden allerdings grundlegend andere Geräte und Maschinen verwendet.
Wie funktioniert das Stanzen?
Das Stanzen im Rahmen der Blechbearbeitung funktioniert nach einem sehr einfachen Prinzip: Der grundlegende Aufbau einer Stanzmaschine besteht aus einem Stempel (Innenform) und einer Matrize (Außenform). Letztere ist mit einem Loch versehen, in das der Stempel exakt hineinpasst. Legt man nun den zu bearbeitenden Werkstoff zwischen Stempel und Matrize und drückt diese aufeinander, wird aus dem Werkstoff die entsprechende Form herausgestanzt. Neben diesem möglichen Aufbau gibt es noch andere Variationen bei Stanzmaschinen, die je nach Zweck zum Einsatz kommen können.
Stempel und Matrizen können je nach gewünschter Stanzung ausgetauscht werden, sodass es möglich wird unterschiedliche Formen auszustanzen. Unterschieden werden kann zudem zwischen Hub- und Rotationsstanzverfahren. Darüber hinaus ist es möglich das Stanzen mithilfe von CNC-Stanzmaschinen durchzuführen. Das passiert zum Beispiel überall dort, wo die Fertigung besonders flexibel sein muss und wo das Laserschneiden, eine häufige Alternative zum Stanzen, nicht möglich oder aus wirtschaftlichen Gründen nicht rentabel ist.
Das Stanzen ist ein sehr einfaches Verfahren und wird vor allem genutzt, um bestimmte Formen (Stanzungen) in das Werkstück hineinzudrücken oder die Außenkanten dieses Werkstücks zu bearbeiten. Ein eng verwandtes Verfahren ist das Nibbeln, welches vorwiegend bei feineren bzw. komplizierteren Stanzformen angewendet wird. Die Vorteile sind vor allem in der Schnelligkeit zu sehen: Ebenso präzise wie sauber können selbst größere Stückzahlen binnen kürzester Zeit gefertigt werden. Darüber hinaus bietet das Stanzen den Vorteil, dass es sich hierbei um ein mechanisches Verfahren handelt. Das bedeutet, dass das Werkstück, anders als beim Laserschneiden, nicht erwärmt werden muss, was häufig thermische Veränderungen nach sich zieht.
Allerdings sollte berücksichtigt werden, dass die Vorbereitungen fürs Stanzen unter Umständen recht (zeit-) aufwändig sind, weil die jeweiligen Stanzmesser und Stanzformen exakt abgestimmt werden müssen. Zudem ist der Verschleiß bei den Stanzmessern, die sich je nach bearbeitetem Werkstoff recht schnell abnutzen können und dann ausgetauscht werden müssen, überaus groß und als Kostenfaktor einzukalkulieren. Nichtsdestotrotz ist das Stanzen aus wirtschaftlicher Sicht und bezüglich der Präzision vor allem bei größeren Serien in der Regel das Mittel der ersten Wahl bei der Blechbearbeitung. Bei CNC-Stanzmaschinen entfallen darüber hinaus längere Umrüstzeiten, denn es sind Schnellwechselwerkzeuge mit Stecksystem vorhanden. Außerdem können einzelne Bearbeitungsschritte verknüpft werden, wodurch sich zusätzlich Zeit und damit Kosten einsparen lassen.
Steilförderer/Steilwandförderer
Steilförderer oder Steilwandförderer sind technische Einrichtungen aus dem Bereich der Zuführtechnik, die dem vertikalen Transport von Schüttgut und kleineren Werkstücken dienen. Häufig wird in diesem Zusammenhang auch von einem Bunkerelevator gesprochen. Je nach baulicher Ausführung des Förderbandes kommen Varianten wie zum Beispiel Knickförderer oder Wellkantenförderer zum Einsatz. Darüber hinaus können die Steilförderer vorrangig als Element der Zuführtechnik genutzt werden oder auch zusätzlich Sortieraufgaben übernehmen. Die Steilförderer können Werkstücke aus unterschiedlichen Materialien sowie in verschiedenen Größen aufnehmen und transportieren, denn individuelle Anpassungen sind in vielen Bereichen möglich. So überwindet das Fördergut zuverlässig und reibungsarm sogar große Höhendistanzen.
Wie funktioniert ein Steilförderer?
Ein Steilförderer oder ein Steilwandförderer funktioniert, anders als beispielsweise ein Linearförderer oder ein Wendelförderer, nicht mithilfe von Schwingungen, sondern erledigt den Transport des Förderguts mittels eines Transportbandes. Hierfür werden die Werkstücke zunächst in einen Bunker gegeben, der sich gewissermaßen am Fuß des Transportbandes befindet. Von dort aus werden Schrauben, Muttern, Münzen und ähnliches Schüttgut stückweise auf das Transportband bewegt und nach oben geführt. Hierfür sind auf dem Transportgurt Profile oder Mulden angebracht. Diese halten das Fördergut auf dem Band.
Wo liegen die Vorteile von einem Steilförderer?
Der Steilförderer oder Steilwandförderer ermöglicht den vertikalen Transport sogar über starke Steigungen von sechzig oder siebzig Grad hinweg sicher und zuverlässig. Er kann in seiner Bauweise individuell auf das zu transportierende Schüttgut sowie auf weitere Parameter angepasst werden. So gibt es die Möglichkeit den Steilförderer mit einem fahrbaren Bunker auszustatten und/oder das Transportband an die Beschaffenheit des Stückguts anzupassen. Während leichtes Fördergut auf einem Kunststoffgurt mit Querprofilen transportiert werden kann, kommt für schwerere Teile eine Kunststoff- oder Stahl-Gliederkette zum Einsatz. Auch hinsichtlich des Bunkervolumens, der Transportgeschwindigkeit sowie der Ausführung der Querprofile auf dem Transportgurt sind Individualisierungen möglich und mitunter sogar notwendig. Steilförderer können gegebenenfalls mit anderen Systemen aus dem Bereich der Sortier- und Zuführtechnik, wie zum Beispiel einem Linearförderer, kombiniert werden.
Tintenstrahldruck mit Wärmeeinwirkung
Das Thermal Inkjet-Verfahren ist eine Variante des Tintenstrahldrucks, die unter anderem in der Industrie verwendet wird, um eine Druckvorlage schnell, präzise und kontaktlos auf ein Trägermedium zu übertragen. Thermal Inkjet ist im Bereich der Drop-on-Demand-Druckverfahren zu verorten, bei dem – wie der Name verrät – Tintentropfen erst dann aus den Düsen gespritzt werden, wenn sie laut Druckvorgabe auch tatsächlich benötigt werden. Eine alternative Variante zum Thermal Inkjet ist das Piezo-Verfahren. Während die Tintentropfen beim Piezo-Verfahren jedoch nach dem Prinzip der mechanischen Verdrängung aus der Düse geschleudert werden, funktioniert Thermal Inkjet über die Erwärmung der Tinte im Inneren der Düse.
Wie funktioniert Thermal Inkjet?
In der Düse eines Thermal Inkjet-Druckers sind Heizelemente verbaut, die Temperaturen von bis zu 300°C erreichen können. Die Heizelemente erhitzen die Tinte, die sich im Inneren der Düse befindet, bis über deren Siedepunkt hinaus. Wenn die Tinte ihren Aggregatszustand wechselt und in den gasförmigen Zustand übergeht, dehnt sich das Volumen aus und es wird ein hoher Druck erzeugt. Dieser Druck sorgt wiederum dafür, dass der Tintentropfen aus der Düse gepresst wird und die Farbe entsprechend auf dem Trägermaterial landet. Anschließend reguliert das Heizelement die Temperatur wieder nach unten und die Tinte geht vom gasförmigen in den flüssigen Zustand zurück. Hierdurch verändert sich das Druckverhältnis erneut und der entstehende Unterdruck sorgt dafür, dass automatisch neue Tinte in die Düse gesaugt wird.
Das Thermal Inkjet-Verfahren wurde in den 1980er Jahren relativ zeitgleich von HP und Canon entwickelt. Mittlerweile sind viele weitere Hersteller von Inkjet-Druckern dazugekommen und Thermal Inkjet hat sich vor allem im industriellen Bereich vielfach zum modernen Standard entwickelt.
Was sind die Vorteile von Thermal Inkjet?
Als Variante des Inkjet-Druckverfahrens überzeugt Thermal Inkjet insbesondere aufgrund der Schnelligkeit und der Präzision der Ergebnisse. Aufgrund der hohen Auflösung ist zum Beispiel die Tiefenschärfe beim Druck von Lichtbildern und Fotografien auf Chipkarten sehr überzeugend. Durch die Tatsache, dass mehrere tausend Düsen in modernen Thermal Inkjet-Druckern miteinander verknüpft werden können, ergibt sich eine sehr kurze Bearbeitungszeit. Zudem ist die Technologie, die hinter Thermal Inkjet steckt, heute deutlich günstiger herzustellen als Druckköpfe, die nach dem Piezo-Verfahren arbeiten. Die Bauteile sind nicht nur kleiner, sondern auch statisch und dadurch weniger anfällig für Defekte. Darüber hinaus ist der Wartungsaufwand beim Thermal Inkjet deutlich kleiner als bei anderen Druckverfahren. Auf der anderen Seite muss allerdings beachtet werden, dass bei der Auswahl der verwendeten Tinte spezifische Kriterien zu berücksichtigen sind. So müssen diese eine relativ große Hitzebeständigkeit vorweisen können. Auch bei der Zusammensetzung der Farbe aus verschiedenen Pigmenten muss präzise vorgegangen werden, weil einzelne Pigmente den Verdampfungsprozess (Siedepunkt) beim Thermal Inkjet beeinflussen können.
Thermotransfer – Langlebiges Thermodruckverfahren
Beim Thermotransfer handelt es sich um ein Thermodruckverfahren, bei dem Druckergebnisse aufgrund punktueller Hitzeeinwirkung erzielt werden. Alternative Bezeichnungen sind TTO (thermal transfer overprinter) oder Thermaltransferdruck. Das Grundprinzip beim Thermotransferdruck ist einfach zu erklären: Es gibt einen Thermodruckkopf, auf dem kleine Heizwiderstände wie auf einem Kamm angeordnet sind. Entsprechend häufig wird der Thermodruckkopf auch als Thermokamm bezeichnet. Beim Thermotransfer wird zwischen dem zu bedruckenden Objekt und den Thermodruckkopf eine Farbfolie positioniert. Diese ist mit speziellen Farbschichten versehen. An den Punkten, an denen eine Farbübertragung von der beschichteten Folie auf das zu bedruckende Objekt erfolgen soll, werden nun die Heizelemente im Thermodruckkopf aktiviert. Dadurch wird ein Schmelzvorgang auf der Folie in Gang gesetzt, sodass sich die Farbe von der Folie löst und auf das zu bedruckende Objekt übertragen wird. Es sind mehrfarbige Druckergebnisse möglich, wobei in diesem Zusammenhang entweder mehrere Druckköpfe eingesetzt oder die einzelnen Farben nacheinander aufgebracht werden müssen.
Wo liegen die Vorteile vom Thermotransferdruck?
Gegenüber anderen Thermodruckverfahren bietet der Thermotransferdruck einige Vorteile. Üblicherweise sind die Druckergebnisse aus dem Thermodirektdruck besonders licht- und temperaturempfindlich. Das bedeutet, dass sie mit der Zeit verblassen oder komplett unlesbar werden können. Es ist möglich durch das Aufbringen einer speziellen Schutzschicht auf dem Papier bzw. die Auswahl eines besonderen Thermopapiers langfristigere Druckergebnisse zu erzielen, dies ist wiederum mit höheren Kosten verbunden.
Beim Thermotransfer sind die Druckergebnisse von vornherein dauerhaft angelegt. Zudem muss das zu bedruckende Objekt nicht zwangsläufig aus Papier bestehen. Theoretisch ist beim Thermotransfer das Bedrucken vieler unterschiedlicher (3D)-Objekte möglich. Deshalb wird mit dem Thermotransfer vor allem dann gearbeitet, wenn beispielsweise Seriennummern auf bestimmten Bauteilen aufgebracht werden sollen, die dauerhaft haltbar sein sollen. Ein entsprechender Thermotransferdrucker kann zudem individuell programmiert werden und immer neue Ergebnisse liefen. Dank der hohen Auflösungen von bis zu 600 dpi und mehr können sogar Fotos mithilfe des Thermotransfers gedruckt werden. Überdies handelt es sich hierbei um ein besonders kostensparendes Druckverfahren, weil nur sehr kleine Farbbandmengen benötigt werden. Als Nachteil kann allerdings angeführt werden, dass auf der verwendeten Thermotransferfolie die Druckausgaben lesbar bleiben. Das kann in punkto Datenschutz zu Komplikationen führen.
Wo kommt der Thermotransfer zum Einsatz?
Thermotransfer bzw. Thermotransferdruckverfahren kommen heute vielfach zum Einsatz. Genauso wie Inkjet oder Thermal Inkjet wird der Thermotransfer verwendet, um Bankkarten zu individualisieren. Darüber hinaus wird das Verfahren im Zusammenhang mit dauerhaften Etiketten und Seriennummern oder beim Drucken von Fotografien verwendet. Um die potentielle Vielseitigkeit des Thermotransfers optimal ausnutzen zu können, sind die entsprechenden Maschinenapparaturen häufig Teil größerer Industrieroboter. So können auch dreidimensionale Objekte während der Fertigung entsprechend bedruckt werden.
-
-
- /
-
Zusammen für mehr Leistung
Jeder Werkstoff bringt spezifische Eigenschaften mit sich: Während einige für die entsprechenden Nutzungs- oder Anwendungsbereiche in der Industrie sehr positiv und erwünscht sind, gibt es andere, die eher negativ auffallen. Doch durch die Kombination unterschiedlicher Werkstoffe untereinander, können positive Eigenschaften verstärkt und Negativfaktoren ausgeglichen oder komplett beseitigt werden. Wenn zwei Werkstoffe miteinander kombiniert werden und der Ergebnis-Werkstoff andere Eigenschaften aufweist als die separaten Ausgangsmaterialien, spricht man auch von einem sogenannten Verbundmaterial oder einem Verbundwerkstoff. Verbundmaterialien werden im industriellen Bereich immer häufiger eingesetzt, da sie zahlreiche Vorteile mit sich bringen.
Welche Arten von Verbundmaterialien gibt es?
Die Liste der verschiedenen Verbundmaterialien ist lang und regelmäßig werden neue Kompositwerkstoffe entwickelt. Dabei werden unterschiedliche Werkstoffe und Materialien allerdings nicht wahllos miteinander kombiniert, sondern unter Berücksichtigung verschiedener Faktoren zusammengefügt. Die stofflichen Eigenschaften der Werkstoffe spielen zum Beispiel eine große Rolle. So gibt es keramische, organische, metallische und polymere Werkstoffe, aus denen sich wiederum Faserverbundwerkstoffe, Schichtverbundwerkstoffe (Laminate), Teilchenverbundwerkstoffe oder auch Strukturverbundwerkstoffe herstellen lassen.
Ein bekanntes Beispiel für einen Schichtverbundwerkstoff ist das Laminat. Hergestellt wird es aus unterschiedlichen Schichten verschiedener Verbundmaterialien, die wiederum ganz eigene Charakteristika mit sich bringen. Dieser Schichtverbundwerkstoff kann zum Beispiel für diverse Forming-Elemente verwendet oder aber für die Verkleidung von Fassaden eingesetzt werden.
Der Faserverbundwerkstoff ist ebenfalls weit verbreitet. Um ihn herzustellen, können verschiedene Verbundmaterialien zum Einsatz kommen. Die individuellen Eigenschaften der einzelnen Verbundmaterialien sind dabei ebenso entscheidend wie der Kostenfaktor. So werden beispielsweise Glasfasern aufgrund ihres geringen Preises gern als Verbundmaterialien genutzt. Keramikfasern sind dagegen deutlich teurer und werden daher als Verbundmaterialien meist nur dann eingesetzt, wenn die Verbundwerkstoffe hohen Temperaturen standhalten müssen. Auch Kohlenstofffasern sind als Verbundmaterialien äußerst beliebt, obwohl sie recht kostspielig sind. Ihrem geringen Gewicht ist es zu verdanken, dass sie vor allem in der Luft- und Raumfahrt zum Einsatz kommt.
Vorteile von Verbundmaterialien: Warum werden Verbundmaterialien benötigt?
Wenn Verbundmaterialien miteinander kombiniert werden, verfolgt dieses Verfahren normalerweise einen bestimmten Zweck. In Abhängigkeit vom späteren Einsatz- bzw. Anwendungsbereich des Verbundwerkstoffs können verschiedene Zielsetzungen eine Rolle spielen: So können Werkstoffe beispielsweise in ihrer Farbe oder in ihrer Hitzebeständigkeit verändert werden. Auch mit Blick auf die Schlagzähigkeit oder die Bruchdehnung kann die Compoundierung große Erfolge erzielen.
Verbundmaterialien bzw. Verbundwerkstoffe sind heute für viele von uns Teil des alltäglichen Lebens. So befinden sich beispielsweise Faserverbundwerkstoffe in Gebäuden, Brücken und Booten, aber auch in Kleidungsstücken, Möbeln oder Haushaltsgeräten. Nichtsdestotrotz werfen die Kompositwerkstoffe einige Fragen bzw. Probleme auf. So sieht man sich vor allem beim Recycling bzw. bei der Entsorgung mit etlichen Herausforderungen konfrontiert, da Verbundmaterialien, die einmal zusammengefügt wurden, sich später nicht mehr so leicht trennen lassen.
Wendelförderer
Wendelförderer sind im industriellen Bereich ein wichtiger Bestandteil von Fördersystemen. Sie können ähnlich wie Linearförderer oder Steilwandförderer in eine komplexe Förderanlage integriert oder als unabhängige Komponente für die vertikale Förderung von verschiedenen Arten von Gütern zuständig sein. Neben der Förderung von Schüttgut werden Wendelförderer vor allem für das Sortieren von kleinem Stückgut wie Schrauben oder Drehteilen verwendet. In der Regel handelt es sich bei Wendelförderern um Sonderanfertigungen, die speziell für den jeweiligen Einsatzzweck entworfen werden. Als Teil einer Sortieranlage können Wendelförderer deshalb immer nur für exakt definierte Güter eingesetzt werden. Mithilfe von Umbaumaßnahmen lassen sich Wendelförderer jedoch so umrüsten, dass sie auch ähnliche Bauteile sortieren können.
Wie funktioniert ein Wendelförderer?
Wendelförderer sind auch als Vibrationswendelförderer, Teileförderer, Topfförderer oder Rütteltopf bekannt. Diese Bezeichnungen lassen sich auf die spezifische Bauform des Wendelförderers und dessen Funktionsweise zurückführen: Das Sortieroberteil eines Wendelförderers ist wie ein Topf geformt, der aus einer fest verbundenen zylindrischen Spirale, der sogenannten Wendel besteht. Mit Blick auf die schraubenförmige Förderbahn bzw. den Topf des Wendelförderers unterscheidet man zudem zwischen Zylinderform, Stufenform und Kegelform.
Die Funktionsweise ist relativ simpel: Durch einen elektromagnetischen Schwingantrieb wird die Förderbahn des Wendelförderers in Vibration versetzt. Diese Vibration initiiert beim auf der Förderbahn liegenden Gegenstand eine Wurfbewegung, die den Gegenstand in gewünschter Richtung fortbewegt. Man spricht hierbei auch vom sogenannten Mikrowurf. Je nachdem, ob spezifische Sortierelemente eingebaut sind, erfolgt darüber hinaus eine Ausrichtung der Gegenstände auf der Förderbahn. Das ist wichtig, wenn der Wendelförderer als Sortierförderer genutzt wird. Die Sortierelemente – auch Schikanen genannt – werden für gewöhnlich von Hand eingebaut. Je nach Konzeption des Wendelförderers ist es möglich Umbauten vorzunehmen, die eine Anpassung der Schikanen an wechselnde Transportgegenstände erlaubt.
In Abhängigkeit von der Produktionskette, in welcher der Wendelförderer integriert ist, lassen sich neben den Schikanen noch einige andere Parameter individuell regulieren. So ist es beispielsweise möglich die Fördergeschwindigkeit durch eine Veränderung der Vibrationsstärke bzw. Schwingfrequenz zu verändern. Zudem können verschiedene zusätzliche Elemente, etwa zur Temperaturregulierung, angeschlossen werden. So gibt es neben Wendelkühlern, die das Stückgut im Wendelförderer herunterkühlen, auch Heizwendelförderer, die für einen Temperaturanstieg der zu fördernden Gegenstände sorgen.
Wo liegen die Vorteile von Wendelförderern und wo werden sie eingesetzt?
Insbesondere kleinere Wendelförderer werden in industriellen Bereichen wegen ihrer Sortierfunktion angeschafft. Das erhöht bei weiterführenden Arbeitsprozessen die Taktzeit, da die benötigten Kleinbauteile direkt lagerichtig gefördert werden. Eingesetzt werden sie unter anderem in der Automobilbranche, der Medizintechnik sowie auch in der Kunststoff- und der Elektronindustrie. Wichtig ist allerdings Verschleißerscheinungen am Wendelförderer von vornherein vorzubeugen. Das lässt sich beispielsweise mithilfe von speziellen Beschichtungen der Wendelbahn umsetzen.