Petershausen, 5.November 2019

 

InFrame Synapse Equipment Connector von camLine

Maschinen einfach und schnell IloT-fähig machen und mit MES verknüpfen

Mit InFrame Synapse Equipment Connector (EQC), einer innovativen Integrationssoftware von camLine, können Fertigungsunternehmen ihre nicht IIoT-fähigen Anlagen nach dem Plug-and-play-Prinzip einfach und schnell mit einer digitalen Schnittstelle ausstatten. Auf diese Weise sind sie in der Lage, den kompletten Maschinenpark – auch ältere Anlagen ohne IT-Schnittstelle – im Sinne des Industrial Internet of Things (IIoT) und von Industrie 4.0 zu vernetzen und in das vorhandene Manufacturing Execution System (MES) zu integrieren. Sie erhalten dadurch den vollständigen Überblick über das Produktionsgeschehen, der es ihnen ermöglicht, die Prozesse im Shopfloor zu optimieren, die Produktivität zu steigern und ein lückenloses Tracking und Tracing zu etablieren. Gleichzeitig erzielen sie eine größere Effizienz in der Produktion und eine belastbare Datengrundlage für eine höhere Genauigkeit in der strategischen Planung.

Üblicherweise ist die nachträgliche Anlagenanbindung mit zeitraubender Programmierung verbunden. Dagegen erfolgt die Erstellung von IT-Schnittstellen mithilfe des EQC per Konfiguration, was die Kosten enorm reduziert, zum Teil um bis zu 75 Prozent. In Kombination mit dem geringen Aufwand bei der Schnittstellenimplementierung und der MES-Anbindung stellt das einen echten Mehrwert dar. Dank der offenen Schnittstellen ist der EQC zudem so flexibel, dass er sich mit jedem MES verknüpfen lässt, ob von camLine oder einem anderen Hersteller, und Daten aus allen gängigen Maschinensteuerungen (SPS) holen kann.

Bei der Implementierung der Schnittstellen und der MES-Anbindung unterstützt camLine die Kunden mit seinem breit gefächerten, auf über 30 Jahren Erfahrung beruhenden Know-how. Als Mitglied im internationalen Halbleiter- und Fotovoltaikverband SEMI wirkte camLine darüber hinaus aktiv an der Erarbeitung von Schnittstellenstandards (SECS/GEM) mit.

Von den vielfältigen Vorzügen der Integrationssoftware InFrame Synapse Equipment Connector profitieren aber nicht allein Fertigungsunternehmen, sondern auch die Anlagenhersteller. Sie können mit dem EQC jetzt unkompliziert und ohne große Mühe standardkonforme oder individuelle IT-Schnittstellen für ihre Maschinen realisieren und preiswert zur Verfügung stellen – ein großes Plus.

Weiterführende Informationen zum InFrame Synapse Equipment Connector (EQC) stehen im Internet auf der Website https://www.camline.com/de/produkte/inframe-synapse/inframe-eqc.html zur Verfügung.

Petershausen, 15. Oktober 2019

 

MES-Einstieg für den Mittelstand

Digitale Fertigungsprozesse ‚out of the box‘


Längst differenzieren sich Mittelständler im weltweiten Wettbewerb durch ihre Effizienz, Transparenz und Rückverfolgbarkeit in der Fertigung. Hierfür wurden Manufacturing Execution Systems geschaffen. Und mit einer schlanken modularen Lösung, die schnell betriebsbereit ist, gelingt der Einstieg in die digitale Fertigung auch leicht im Mittelstand.

Wie Studien belegen, bilden mehr als 80 Prozent der mittelständischen Industriebetriebe ihre kaufmännischen Prozesse in einem ERP-System ab. Ganz anders stellt sich die Situation beim Einsatz von Manufacturing Execution Systems (MES) dar. Der steckt im produzierenden Mittelstand meist noch in den Kinderschuhen, wie eine Umfrage von Pierre Audoin Consultants (PAC) zeigt. Daten zu Rüst- und Ausfallzeiten, zu Fertig-, Gut- und Ausschussmengen oder zur Maschineneffektivität (Overall Equipment Effectiveness, OEE), aber auch Qualitätsmeldungen werden in vielen Betrieben immer noch dezentral erfasst – in Excel-Dateien, selbst entwickelten Datenbanken und Lösungen, zum Teil noch auf Papier. So gesammelte Produktions- und Prozessdaten müssen dann aufwendig von Hand zusammengeführt werden, um daraus Produktionskennzahlen (KPIs) zu gewinnen, die sich weiter auswerten lassen. Das ist fehleranfällig und geht zulasten der Datenqualität. Vor allem aber verschleiert diese inhomogene Datenbasis die Sicht auf das Geschehen in der Fertigung, sodass Optimierungspotenzial in den produktionsnahen Prozessen oft nur unzureichend ausgeschöpft wird. Auch eine lückenlose Rückverfolgung von Materialien, Bauteilen und Rohstoffen wird nahezu unmöglich. Dabei ist gerade das Tracking und Tracing eine wichtige Voraussetzung, um die Richtlinien des Produktsicherheitsgesetzes (ProdSG) oder der Good Manufacturing Practice (GMP) einzuhalten und damit etwaigen Ansprüchen aus der Produkthaftung zuvorzukommen.


Hürden beim MES-Einsatz
Drei Gründe haben sich herauskristallisiert, weshalb der produzierende Mittelstand auf den Einsatz eines ‚klassischen‘ MES in der Produktion verzichtet:

 

Investitionen: Wegen der aufwendigen Anlagenintegration, der Einführungsdauer von sechs bis neun Monaten und der Komplexität des Projekts ist eine MES-Einführung mit hohen Kosten verbunden.

 

Unwägbarkeit von Zeit- und Kostenaufwand: Die Unternehmen fürchten, dass sich das Go-live durch die Notwendigkeit von individuellen Anpassungen hinauszögert oder zahlreiche Change Requests nach dem Produktivstart das MES-Projekt zusätzlich verteuern. Diese Besorgnis beruht nicht selten auf schlechten Erfahrungen im Zusammenhang mit einer ERP-Implementierung.

 

Personal: Oft hapert es intern an personellen Ressourcen, da die Mitarbeiter in den Fachbereichen und der unternehmenseigenen IT-Abteilung mit ihren eigentlichen Aufgaben ausgelastet sind.


Schneller Einstieg

Um auch kleinen und mittelständischen Firmen den Umstieg auf digitale Fertigungsprozesse und IT-gestütztes Tracking und Tracing zu erleichtern, sollte eine Systemeinführung schnell und sicher erfolgen können. Etwa in Form einer schlanken und flexibel skalierbaren Anwendung, die sich in wenigen Wochen implementieren lässt und die Erfassung von Produktions- und Prozessdaten ohne aufwendige Anlagenintegration ermöglicht. Das gilt speziell für Unternehmen, die ihre Fertigung zunächst nicht IT-gestützt steuern wollen und daher auch keine Live-Daten aus ihren Maschinen benötigen. Visualisiert die Lösung zudem Kennzahlen, etwa zu Durchsatz, Ausschuss, Produkthistorie oder zur OEE, schafft das die Transparenz, um Schwachstellen in den Fertigungsprozessen zu erkennen, ihre Ursachen zu ermitteln und Optimierungsmaßnahmen einzuleiten.

Ohne große Anpassungen

Mit InFrame Synapse MES Mini von CamLine ist bereits eine Lösung auf dem Markt, die genau auf diese Bedürfnisse ausgerichtet ist. Die webbasierte, modulare Anwendung kann ‚out of the box‘ innerhalb von vier Wochen implementiert und in Betrieb genommen werden. Die Erfassung von Daten und Werten aus den produktionsnahen Systemen gestaltet sich mit der Lösung recht einfach. Eine Funktion sammelt semi-automatisch die Produktions- und Prozessdaten, die von den Maschinen oder den Steuerungen in Form von Text- oder Excel-Dateien bereitgestellt werden: zum Beispiel Prozesszeiten und -parameter, Produkt-IDs, Zeitstempel, Auslastungen, Stillstände, Betriebszeiten und Alarme, aber auch qualifizierende Daten wie Bestellnummer, Verbrauchsmaterial oder Messpositionen.

Kennzahlen auf Knopfdruck

Diese Daten werden in die zentrale Datenbank geladen und lassen sich dort auf Knopfdruck in Bezug auf Produkthistorie, Ausschuss, Durchsatz oder OEE auswerten. Für diese und für zahlreiche weitere KPIs gibt es vordefinierte Reports, die Daten und Werte kompakt und leicht verständlich anzeigen. Die Reports können in allen gängigen Webbrowsern abgerufen werden – am Desktop-PC oder mobil per Smartphone oder Tablet – und belegen Verbesserungen in der Produktion mit nachvollziehbaren Zahlen. Das Herzstück für die Visualisierung der KPIs bildet eine Report-Engine, die zugleich die Umwandlung von Reports in gängige Textformate wie PDF, Excel oder PowerPoint ermöglicht. Zusätzlich zu den vordefinierten Reports lassen sich bei Bedarf auch individuelle Berichte mithilfe eines Report-Editors erstellen. In der Anwendung erfassen Maschinenführer darüber hinaus Informationen zum Bearbeitungsvorgang von zuvor gescannten Materialien und Bauteilen, beispielsweise Verbrauchs- und Qualitätsdaten. So lässt sich nachvollziehen, wer wann was und mit welchen Teilen produziert hat – Tracking und Tracing. Gerade bei Rückrufen kann das wettbewerbsrelevant werden, zumal produzierende Firmen heutzutage vermehrt in Geschäftsnetzwerken agieren.


Im eigenen Tempo skalieren

Die Manufacturing-Lösung ist skalierbar und wächst mit dem Unternehmen mit. Zum einen lässt sich ihre technische Infrastruktur an das Datenvolumen, die Anzahl der Einzelserver, Cluster, Maschinen oder die Datenquellen anpassen. Zum anderen kann der Funktionsumfang durch den modularen Aufbau der Anwendung relativ einfach Schritt für Schritt bis hin zu einem vollumfänglichen MES ausgebaut werden. InFrame Synapse MES Mini basiert auf dem kostenlosen MySQL Community Server und läuft somit auf allen gängigen Betriebssystemplattformen (Windows/Linux), zusätzliche Datenbankserver sind nicht erforderlich. Da die Anwendung mit den übrigen im Unternehmen verwendeten IT-Lösungen verknüpft werden kann, lassen sich die produktionsnah erhobenen Daten auch in die kaufmännischen Prozesse einbinden. Auf diese Weise kann die Produktion flexibler auf Marktschwankungen reagieren und auch die Qualität der Produkte lässt sich kontinuierlich verbessern bei camLine Dresden.

Der Fachbeitrag erschien in der Fachzeitschrift IT&Production und steht zur Zeit auf der Startseite des führenden Magazins für erfolgreiche Produktion www.it-production.com »

 

Petershausen, 15. Oktober 2019

 

SEMICON Europa: camLine präsentiert neues Add-on für Lineworks SPACE und Lösungen aus der LineWorks-Suite


Das international tätige Softwareunternehmen camLine präsentiert auf der Halbleitermesse SEMICON Europa (12.–15. November 2019) in München seine IT-Lösungen zur Optimierung der Fertigungsexzellenz für Unternehmen der Halbleiter- und Mikroelektronikindustrie. Im Mittelpunkt des Messeauftritts in Halle B1 am Stand 221 stehen die Lösungen aus dem LineWorks-Portfolio.

 

Das ist zum Beispiel das neue, webbasierte Add-on LineWorks CDM (Chemicals and Gases Distribution Management) für die Infrastrukturlösung LineWorks SPACE zur statistischen Prozessregelung (SPC) und zur Qualitätssicherung in der Produktion. Es ermöglicht das lückenlose Tracking und Tracing angelieferter Gase, Chemikalien oder Rohstoffe und sämtlicher Qualitätsdaten vom Wareneingang bis zur Bereitstellung an den Anlagen. Halbleiterproduzenten können so jederzeit und an jedem Punkt der Intralogistikkette feststellen, wie sich diese Grundstoffe auf die Prozess- und Produktqualität in der Fertigung auswirken und Optimierungsmaßnahmen zielgerichtet planen und durchführen. LineWorks CDM macht es auch möglich, automatisch Nachbestellungen auszulösen, bevor der Lagerbestand ausgereizt ist. Alle Arten von Transportsystemen wie Fässer, Behälter und Container sind dazu mit ID-Nummern (Container-, Stapel-, Equipment-, Standort-ID) versehen.

 

Die von LineWorks CDM benötigten Qualitätsdaten entstammen der Supply-Chain-Lösung LineWorks SQM (Supplier Quality Management), die auf LineWorks SPACE basiert. LineWorks SQM verarbeitet und verwaltet elektronische Analysenzertifikate (electronic Certificate of Analysis, eCOA). In verteilten Liefernetzwerken garantiert eine solche Verwaltung der eCOA verbindliche Qualitätsstandards von den Zulieferern (Tier1–n) bis zum Hersteller und verbessert die Zusammenarbeit.

 

Vor einer Lieferung übermittelt der Zulieferer dem Kunden, ob Tier-Lieferant oder Hersteller, gemäß dessen Vorgabe die gesammelten Qualitätsdaten zu den entsprechenden Halbfertigprodukten und Materialien (Gase, Chemikalien) als eCOA via B2B, E-Mail oder über ein Webportal. Dort werden die Daten unmittelbar geprüft und sobald sie validiert sind, erteilt der Kunde automatisiert die Lieferfreigabe. Auf diese Weise erhält er nur Waren, die seinen Spezifikationen und Qualitätsanforderungen entsprechen, und erzielt dadurch erhebliche Kosteneinsparungen, da sich unter anderem die Wareneingangskontrollen auf ein Minimum reduzieren lassen. Gleichzeitig wird die Effizienz in der Zulieferkette deutlich erhöht und die Liefertreue sichergestellt. Umgekehrt profitieren die Zulieferer (Tier1–n) von diesem Verfahren, weil sie teure Warenrücknahmen vermeiden. Unnötige Warenbewegungen fallen somit weg, was auch der Umwelt zugutekommt.

 

Mit dem Add-on LineWorks CQM (Customer Quality Management) können die Zulieferer die Analysenzertifikate effizienter erzeugen und den Kunden zur Freigabe bereitstellen. Der Lieferprozess wird von LineWorks CQM automatisch angestoßen, sobald die Freigabe erteilt wurde.

 

camLine zeigt auf der SEMICON Europa außerdem, wie das fabrikübergreifende Rezeptmanagementsystem LineWorks RM durch eine hohe Prozessintegrität bei Produktdefinitionen, Rezepten bzw. Fertigungsanweisungen und die eindeutige Identifizierung ganzer Herstellprozesse die Produktivität erhöht. Da die Lösung Produktdefinitionen zentral in einer einzigen Datenbank verwaltet, können sie dynamisch angepasst werden. Das System bietet zur Abdeckung unterschiedlichster Kundenanforderungen entsprechend alternative, leistungsfähige Verteilungsstrategien an. So ist es unter anderem möglich, dass die endgültige Fertigungsanweisung – sie kann aus 400 oder mehr Arbeitsschritten bestehen – auch automatisch erst während des Downloads von der Datenbank generiert wird. In Zeiten, in denen Produktdefinitionen immer komplexer werden – man denke an Standards wie ISA88 oder SEMI –, stellt das einen echten Mehrwert dar.

 

Interessierte Besucher können am Messestand von camLine außerdem die vielfältigen Vorzüge des Process Development Execution Systems (PDES) XperiDesk und der Statistiksoftware Cornerstone kennenlernen. XperiDesk optimiert und beschleunigt die Abläufe in der Forschung und Entwicklung und trägt dazu bei, neue Produkte schneller zur Marktreife zu führen. Und mit der Desktop-Anwendung Cornerstone können Ingenieure umfassende Analysen zur statistischen Prozesslenkung und statistische Versuchsplanungen (Design of Experiment, DoE) durchführen, um die Engineering-Prozesse effizienter zu machen.

Petershausen, 10th October 2019

 

Intuition in Manufacturing – Shining a Personal Light on (Dark) Data

The desire to automate has been one of the drivers behind the development of manufacturing since time immemorial. Humans have always worked hard to try and lessen the need to work hard, with each industrial revolution bringing increasingly sophisticated machines onto the manufacturing floor to take the strain for us.

Industry 4.0 is the latest revolution, introducing the concept of a 'Digital Twin' to the factory floor. Intelligent machines can create a virtual version of themselves, composed of the data they produce, which can direct process decisions based on performance parameters and AI networks. As our capabilities here improve, we can begin to reduce the number of employees on the frontline, automating more and more processes that once had to be manual.

With so many machines creating Digital Twins, big data is increasingly placed at the heart of business decisions in the modern manufacturing enterprise, informing strategy across every area of the manufacturing process. According to research from IDC, there will be 163 zettabytes of data by 2025; that’s 144,000,000,000,000 gigabytes!

Big data offers an opportunity to make serious, immediate improvements to the cost-effectiveness of manufacturing operations, raising the quality of manufacturing while reducing support costs. For example, data streams can track defects, conduct forecasting for the supply chain, and analyse machinery for maintenance needs.

However, for the best possible results we need to marry these insights and strategies with the personal intuition of the boots on the ground. Our desire to automate can’t marginalise the value of those on the manufacturing floor; we need to find the right balance between the benefits of automation and the intuition of our experts.

Character Building

 

The cliché that we could remove all of the staff from the factory floor is — within our lifetime at least — a ludicrous proposition. Industry 4.0 and big data are still in their relative infancies (the German government initiative from which Industry 4.0 takes its name was only publicised as recently as 2016), and we simply aren’t able to exercise the control over our machines that we’d need to make this a reality.

The tiny differences between supposedly identical machines are a good example of current limitations. Machines will be built to the same specifications but develop their own character – qualities like wear and tear, different combinations of replaced parts over time etc., that make every machine unique. Over time the performance of these machines will grow apart, and it’s difficult to modify data analyses to accurately compensate for these tiny disparities.

An operator who has worked with these machines as they’ve developed will recognise the differences intuitively, literally feeling the difference in qualities like noise and vibration. This operator’s annotations on a data sheet can often prove to be of more use, and more cost-effective, than digital analysis.

The Human Factor

 

Taking this one step further, it’s not just that data struggles to accommodate ‘identical’ machines. It’s also not very good at predicting the impact of people, and there will almost inevitably be human processes that impact the results of the data you’re receiving.

Most of these elements are down to human inconsistency – if you’re delayed in beginning a manufacturing cycle by two minutes every time, how many cycles do you lose per year? There’s also machinery in and around the manufacturing floor that doesn’t boast IoT connectivity but can impact the analysis process. For example, if you use the microwave for breakfast every morning and it disrupts a key Wi-Fi network, this makes a major and seemingly inexplicable impact on productivity.

You might counter that, if we continue to develop our data analysis capabilities, we could eventually track every possible metric on the manufacturing floor and finally have the data we need for full automation. This overlooks the fact that, even with our ‘limited’ capabilities at present, we’re already producing far more data than we can actually use.

Many manufacturers are recording dark data — data produced by operations or analysis, but not used — in the hope that will be beneficial at some future point. Others aren’t recording it at all, unaware that it could be of use. With more than 30 billion connected devices by 2020 according to IHS Markit, you can imagine the difficulty in leveraging the intimidating amount of data that this network will produce.

Individual intuition is, again, a major asset here. With those on the manufacturing floor able to help provide the context for their efforts, data scientists are able to ask the right questions of the data sets to hand, align the data of value, and clean up the results. Individual expertise thereby allows manufacturers to genuinely get the most out of the data they create and collect.

Ultimately, all of these examples illustrate the need for data to be managed by a human element that is close to the operational process, and not just from an observer’s perspective. The manufacturers who will benefit from the most insightful, cost-effective processes can only identify and establish them with the help of those immersed in said processes.

This article was published on www.emsnow.com »

Petershausen, 6. September 2019

 

InFrame Synapse Equipment Connector:

Kosten für IIoT-basierte Maschinenintegration um bis zu 75 Prozent reduzieren


Das A und O für eine Optimierung der Fertigungsprozesse und den künftigen Markterfolg besteht darin, sämtliche Anlagen des Maschinenparks im Sinne des IIoT und von Industrie 4.0 einfach, schnell und zu überschaubaren Kosten zu vernetzen. Das gelingt mit dem InFrame Synapse Equipment Connector (EQC) von camLine.

 

Der InFrame Synapse Equipment Connector (EQC) von camLine macht damit Schluss. Die innovative Integrations¬software ermöglicht Fertigungsunternehmen, nicht IIoT- fähige Anlagen nach dem Plug&Play-Prinzip schnell und einfach mit einer Schnittstelle auszustatten und an ihr MES anzubinden. Dank offener Schnittstellen lässt sich EQC mit jedem MES verknüpfen, ob von camLine oder einem anderen Hersteller, und er kann zudem mit allen gängigen Maschinensteuerungen (SPS) kommunizieren. Umgekehrt profitieren aber auch Anlagenhersteller, die mit EQC ohne großen Aufwand standardkonforme oder individuelle Schnittstellen für ihre Maschinen realisieren und preiswert zur Verfügung stellen können. Fertigungsunternehmen kommen in Zeiten des digitalen Wandels nicht darum herum, den ganzen Maschinenpark im Sinne eines Industrial Internet of Things (IIoT) zu vernetzen und in das vorhandene Manufacturing Execution System (MES) zu integrieren. Nur so wird das Produktionsgeschehen vollständig transparent. Das ist die Voraussetzung, um im Shopfloor weiteres Optimierungspotenzial zu heben, die Produktivität zu steigern und ein Tracking und Tracing zu etablieren, aber auch für eine effizientere und genauere strategische Planung.

 

Anlagen per Plug&Play IIoT-fähig machen

Hier gibt es großen Nachholbedarf, da die Maschinenparks oft über Jahre gewachsen sind und auch aus Anlagen bestehen, die keine IT-Schnittstelle haben und nicht IIoT-fähig sind. Die nachträgliche Entwicklung und Programmierung von Datenschnittstellen zur Anbindung solcher Maschinen an ein MES ist zeitaufwendig und mit hohen Kosten verbunden.

Bis zu 75 Prozent weniger Kosten

Da die Erstellung von Schnittstellen per Konfiguration erfolgt statt durch Programmierung, reduziert das die Kosten enorm, zum Teil um bis zu 75 Prozent. Das ist ein echter Mehrwert genauso wie der geringe Aufwand bei der Schnittstellenimplementierung und der MES- Anbindung. camLine unterstützt die Kunden dabei mit einem Know-how, das auf über 30 Jahren Erfahrung beruht und auch in EQC eingeflossen ist. Als Mitglied im Halbleiter- und Fotovoltaikverband SEMI wirkte camLine aktiv an der Entwicklung von Schnittstellenstandards (SECS/GEM) mit.

Der Artikel erschien in der Ausgabe 2019/20 von IT & Production Wissen Kompakt IoT Internet of Things auf Seite 19.

Lesen Sie die komplette Ausgabe 2019/20 IT & Production Wissen Kompakt IoT »

Petershausen, 22nd August 2019

 

Automation and Intuition: Big Data and the Human Side of Manufacturing

The fourth industrial revolution is well underway. Industry 4.0 has gone from being the name of a German government project, to an industry-wide trend encompassing end-to-end digitisation and data integration across whole enterprises.

 

Physical equipment can now have a 'Digital Twin' – a virtual representation of itself – which is able to inform predictions and subsequent processes. Automation is at an all-time high in terms of decision making and process control.

 

Subsequently, we have more data than ever with which to inform business decisions. From machines at the heart of the manufacturing process to incidental mechanisms like the supply chain or transportation, big data is providing the basis for better and quicker strategic decisions.

 

The potential that big data has to make operations more cost-effective is obvious. A 2017 survey from management consultancy McKinsey&Company suggested that the implementation of Big Data in manufacturing could boost pre-tax margins by 4-10%, enhancing everything from machine life to increased output.

 

The seemingly obvious conclusion — which is that you should push the benefits of big data to the maximum, quantifying and automating as much as you can — is not the case. The most effective enterprises will recognise the limitations of Industry 4.0 and continue to value the expert on the manufacturing floor, marrying individual intuition with automation.

 

Man vs machine

The cliché that automation can lead to the total removal of the engineer from the manufacturing floor is a pipedream, at least for our lifetime - we would need far more sophisticated AI mechanisms to make this a reality. The most effective digitalisation that we can implement right now remains at least partially reliant on the boots on the ground. No matter how many metrics at your disposal, there are always insights that human experience, expertise and intuition can offer that won’t be picked up by digital measurements.

For example, in virtually every line of manufacturing, the machines are unique; built to the same specifications but with tiny individual differences. Parts will have unique wear and tear, produce different sounds due to being in different areas of the factory floor, and so on. Big data drawn from these machines is not going to recognise these differences, which can lead to inexplicable differences in the data results.

If an operator has been working with an individual machine for long enough, he can feel whether or not a machine is working through vibrations, noises, appearance, etc. Data isn’t capable of replicating this or providing the context for it, and in many cases an operator’s annotations of a data sheet may offer greater insight than further digital analysis.

Utilising dark data

It’s also true that, even with modern data analysis techniques, the sheer volume of data that a manufacturer produces is too much to use. Dark data — data that you record and don’t use, or that isn’t recorded at all — can’t contribute to the insights that an analyst is trying to glean.

Many companies aren’t even aware of the dark data they store, whereas others simply log it and forget it until a point at which they can make use of it. Given that IBM estimates that 90% of the data generated by sensors and analogue-to-digital converters is never used, and that most companies only analyse 1% of the data, huge opportunities for further insight are being passed up by failing to utilise this resource.

Again, this is where human interpretation and intuition is capable of making the difference. Data scientists can offer an entirely new perspective, bringing light to dark data by reframing it in more accessible formats. They can ask the right questions, align the data of interest, and clean the results to make them more useful to decision makers; without human inputs to define the right context, you’re not going to maximise the utility of your data.

Finally, the unpredictability of human interference can also be difficult for data analytics alone to diagnose. The parameters of data analysis are limited to things directly related to a machine. They won’t, for example, explain how other human processes may disrupt things like performance, or even the analytics process itself – you’ll need to work that out for yourself.

For example, we have previously worked with an automotive manufacturer that found the wireless system used to underpin IoT communications on the manufacturing floor would regularly drop out during the same period every morning. The data showed the loss of connectivity, but it took human intervention to identify the problem; the network was disrupted every time an employee used the microwave to heat their breakfast!

All of these examples demonstrate the importance of the individual engineer, and the impact that they can have on the overall profitability of a manufacturing business. A talented individual is capable of filling in the gaps in our current data analysis; can make the most of the data that we fail to understand or use at all; and is capable of understanding the behaviour of his/her co-workers more than any machine. The manufacturers who want to run the most insightful and cost-effective operations cannot underestimate the influence that the individual can have on both profit margins and internal processes.

This article was published on www.eenewseurope.com »

Petershausen, 7th August 2019

 

Manufacturing misconceptions: The difficulties of tackling big data

The advent of Industry 4.0 offers huge potential to explore new and exciting changes to the manufacturing floor, comments Dirk Ortloff, Department Manager, camLine.

Intelligent machines capable of “speaking” to one another and collating a myriad of complex data promises huge improvements in productivity … and fundamental changes to the ways in which we view manufacturing efficiency.

However, the wealth of data available to manufacturing organisations is growing larger by the year, increasing the complexity of its analysis. Industrial equipment is becoming capable of storing and sharing types of data that were previously impossible, such as the capture of vibration data to contribute towards wear analysis, in increasingly intimidating volumes.

With the speed of development inherent in Industry 4.0 and the sheer volume of data at hand, many manufacturing organisations simply don’t have the know-how to handle big data storage and analysis. Facing data in more formats and higher volumes than ever before, it’s no surprise that they can be overwhelmed; it’s easy to miss the wood for the trees and fail to take full of advantage of the resources to hand.

To avoid missing out on the benefits of appropriate analysis, manufacturers are increasingly looking to in-vogue data analysis techniques to benefit from the most up-to-date procedures.

In-vogue inaccuracies

For example, it’s common for manufacturers to begin with a “data lake” to analyse all of the available data at once. On the surface, the logic is sound; the more data in your analysis, the more insight you can potentially receive. If you consider everything, you don’t omit a crucial outlier or an interesting correlation.

However, this is going to lead to performance issues. Larger data sets take far longer to analyse, especially if online analysis is part of the remit. A company in high-volume manufacturing may produce millions of units in the time it takes to analyse their operational data, only to discover that their processes are far less cost-effective then they thought. This can have a huge impact on the company’s cost margins and will reflect poorly on those responsible.

However, if a data lake approach fails to deliver the desired benefits, we often see people turn to a range of so-called cutting-edge techniques that threaten similar drawbacks if not deployed correctly. As trends in analytics come to the fore, promising results and new ideas can make people overexcited. But it’s easy to apply them inappropriately and end up with unusable, inefficient or misleading results.

For instance, if the data lake approach fails to work, many opt for the polar opposite: a “gathering and systemising” approach. This involves merging as many data bins as possible with a very strong emphasis towards systemising them — with data analysis only beginning once the bins have been systemised.

There’s a serious risk of falling off the other side of the horse here. In many cases, the systemisation doesn’t end, meaning that the data can’t be analysed. This makes it impossible to secure a quick win, with many organisations racking up high costs with no tangible benefit.

Another mistake that many make is opting to conduct data searches without a specific target. This inexpensive technique will select a bulk of data and use neural networks to search for anything interesting — standout results, repeating sequences, particular correlations, etc. This is often performed inexpensively by a trainee.

Without an appropriate data set, this will often lead to unsatisfactory results. It’s difficult to glean any valuable insight without a clearly defined goal; as the process tends to do away with method selection, the results are often far below expectations.

Determining direction

This all demonstrates how unwise it is for companies to commit to in-vogue analytics trends without a serious appraisal of use cases, methodology and the options available to them. It’s understandable to look at successful examples when attempting to find a solution, but data is far more complicated than that.

Attempting to emulate others without a grounding in the logic behind their decision will do more harm than good, particularly when it comes to adding value and cost-benefit ratios.

This is being recognised by even the highest powers, who are investing in education and data analysis applications. One example is the PRO-OPT research and development project, funded by the Federal Ministry for Economic Affairs and Energy of Germany. The PRO-OPT project looked to help companies operating in "smart ecosystems."

These ecosystems are immensely complex. Modern companies generating huge volumes of data will almost always have infrastructures spanning countries or even continents, as well as external partners to consider. With companies looking to outsource services such as manufacturing specialist parts, original equipment manufacturers (OEMs) are an example of specialist consultants who will invariably have a complex data infrastructure themselves, further complicating analysis.

Companies without experience in high-volume data analysis will find it extremely difficult to collate all of this data and properly investigate it. PRO-OPT aims to educate and support companies in the analysis of these huge volumes of data. The importance of its mission was recognised by backing from major German corporations including Audi and Fraunhofer IESE.

To examine one PRO-OPT use case, the project tested a wide variety of production data modelling approaches on the data of a leading automotive supplier. This exercise attempted to identify and demonstrate

  • the difficulties of systematically merging different data buckets
  • the possible modelling of the data in databases that are specifically designed to help analysts tackle large sets of distributed data
  • the actual analysis of these large data collections.

Success would mean being able to apply and compare statistically reliable analyses and classification procedures, as well as new procedures from AI instruments.

Sticking up the data bank

This use case stands out as it clarifies the challenges that companies with limited expertise in data analytics face. Without comprehensive preparation, an awareness of the options available and experience of executing them, organisations are inevitably going to hit unexpected roadblocks.

These can start before the process even begins. Securing a tool that could analyse and manipulate data is obviously very important; new technologies, or means of analysing data, have exciting potential. But when you have a new hammer, it’s easy to forget that some things aren’t nails. It’s crucial not to overlook reliable means of exercising control over the data you have.

Statistical process control (SPC) is a tried-and-tested means of doing so. Defined as “the use of statistical techniques to control a process or production method,” SPC was pioneered in the 1920s. The modern iteration is a technology that offers huge synergy with new data analytic techniques.

The ability to make vital production data available ad hoc, for example, or to automate actions to take place in real-time when certain parameters are met, make SPC an incredibly powerful tool through which to interact with data.

To get the most out of an SPC system, and to allow it to analyse and action changes based on data, it needs results to be loaded into a specialised database. The complex datasets required will often have thousands of variables, all of which need meaningful column names. Many databases don’t have the number of columns needed or a limit on the names you can give these columns — so how do you stop this seriously limiting your analysis capabilities?

Once the analysis is under way, does your organisation have the time and schedule to make it cost-effective? Most SPC solutions operate offline, analysing data retrospectively; only the most modern solutions are able to analyse online, in real-time. How do you balance the analysis you need with the manufacturing output that you require?

Beyond this, even if you can employ a database that can handle the volume of data you are working with and have completed the analysis process, data needs to be presented in a digestible way. Datasets with millions of data points can’t be displayed in conventional XY scatter points as they’ll almost completely fill the canvas — even transparent data points aren’t of any use. How do you go about translating a blob of X million data points into actionable insights?

These are just examples of the tip-of-the-iceberg-level thinking required to perform effective analysis, which goes to show just how careful analysts need to be. Without a considered roadmap of the journey that the data needs to take, and how analysts will both identify the data they need and then break down the results, it is all too easy to fail.

However, with the right equipment and ethos, analysis that used to be inefficient owing to the sheer volume of data can offer completely new insights into production data.

This article was published on www.manufacturingchemist.com »

Petershausen, 14. März 2019

 

camLine auf der HANNOVER MESSE 2019

Digitale Fertigung „out of the box“, Wartung 4.0 und Co.

(PresseBox) ( Petershausen, 14.03.19 ) Das international tätige Softwareunternehmen camLine präsentiert sein Lösungs- und Serviceportfolio zur Steigerung der Fertigungsexzellenz und für die digitale Fabrik auf der HANNOVER MESSE (1.– 5. April 2019) in Halle 7 (Digital Factory) am Stand C25. Im Mittelpunkt des Messeauftritts stehen die modulare und schlanke Manufacturing-Software Inframe Synapse MES mini für kleine mittelständische Fertiger und als Neuheit die LineWorks Machine Maintenance Solution (MMS) für smarte Wartungsprozesse.

 

Inframe Synapse MES mini: Schneller Einstieg in die digitale Produktion

Inframe Synapse MES mini bietet „Out of the box“ den schnellen und kostengünstigen Einstieg in digitale Fertigungsprozesse, aber auch in die Nachverfolgbarkeit – Stichwort Tracking und Tracing. Die Lösung kann innerhalb von vier Wochen implementiert werden und amortisiert sich schnell. Sie ist dabei so flexibel skalierbar, dass sie problemlos mit einem Unternehmen mitwachsen kann, bis hin zum kompletten MES.

 

Um in der Produktion Schwachstellen zu identifizieren und Abläufe zu optimieren, werden die erfassten Produktions- und Prozessdaten in eine zentrale Datenbank geladen. Dort lassen sich die Daten per Knopfdruck auswerten, etwa in Bezug auf Durchsatz, Ausschuss, Produkthistorie oder Overall Equipment Effectiveness (OEE). Berichte zeigen übersichtlich visualisiert das Optimierungspotenzial in der Fertigung an.

 

Da InFrame Synapse MES mini Informationen aus Anlagen, aber auch zum Maschinenführer sowie zu gescannten Materialien oder Bauteilen erfasst, ermöglicht das ein Tracking und Tracing der Produktionsprozesse. Das ist gerade im Hinblick auf die Produkthaftung ein echter Mehrwert. Ein kurzweiliger Erklärfilm auf dem Youtube-Kanal von camLine liefert weitere nützliche Informationen zu Inframe Synapse MES mini. Das Video kann unter dem Link www.youtube.com/watch aufgerufen werden.

 

LineWorks MMS: Smarte Wartung als Enabler für Smart Factory

Mit LineWorks MMS als innovativer Infrastrukturlösung kann eine digitale und smarte Wartung für alle Anlagen in komplexen Produktionsstrukturen realisiert werden. Das erhöht die Verfügbarkeit, die Produktivität und die OEE des Maschinenparks deutlich, zugleich ist es ein Schlüsselfaktor und Enabler für die Smart Factory im Sinne von Industrie 4.0.

 

Anhand von Fehlerstatistiken und Lösungsvorschlägen, die LineWorks MMS bereitstellt, wird die Ursache für ein Problem oder einen Ausfall schnell erkannt, und die Wartung bzw. Reparatur kann zeitnah durchgeführt werden. Eine Workflow-Engine führt den Techniker Schritt für Schritt durch die Abläufe, die er somit sicher, also ohne Bedienfehler, und vor allem rasch erledigen kann, auch dank einer Echtzeitsicht auf die Ersatzteile im Lager. Sämtliche Arbeitsschritte werden protokolliert und lassen sich somit lückenlos nachvollziehen. Eine Gantt-Ansicht zeigt übersichtlich anstehende Wartungen, was eine effiziente und vorausblickende Planung von Technikereinsätzen ermöglicht.

 

LineWorks MMS beinhaltet zudem Funktionen für die Qualitätskontrolle, das OEE-Reporting oder die Zeitanalyse sowie einen Statusmonitor und zeichnet sich durch eine hohe Integrationsfähigkeit in Bezug auf die Anbindung an ERP-Systeme und Maschinen aus. Die Anpassung der Applikation, die alleinstehend oder im Verbund mit weiteren Modulen der LineWorks-Suite von camLine eingesetzt werden kann, an individuelle Prozessanforderungen erfolgt einfach und flexibel per Konfiguration.

 

camLine zeigt auf der HANNOVER MESSE außerdem weitere IT-Lösungen zur Steigerung der Fertigungsexzellenz: die LineWorks-Suite, deren Module sich zu einer maßgeschneiderten Anwendung kombinieren lassen, das leistungsstarke MES InFrame Synapse den Einstieg in die digitale Fabrik, auch für KMUs, das Process Development Execution System (PDES) XperiDesk oder die Statistiksoftware Cornerstone für Ingenieure mit deren Big-Data-Analysen sowie statistische Versuchsplanung (Design of Experiment, DoE).

 

Interessenten, die sich vor Ort über die Leistungsfähigkeit der Softwarelösungen und das Know-how von camLine im Bereich der Produktion informieren wollen, können unter info@camLine.com vorab einen Termin für ein persönliches Gespräch vereinbaren. Sie erhalten dann freien Eintritt für den Messebesuch.

Dresden, 13. November 2018
Der Smart Systems Hub in Dresden

 

Industrie 4.0-Modellfabrik im Silicon Saxony

Viele Produzenten nennen den Fachkräftemangel als größte Hürde auf ihrem Weg zur Digitalisierung und die Ausbildungseinrichtungen stellen sich zunehmend darauf ein. Um den Nachwuchs gezielt auf die Arbeit in der vernetzten Industrie vorzubereiten, hat etwa die Hochschule Dresden eine Industrie-4.0-Modellfabrik aufgebaut. Im IIoT-Testbed dort können Studierende und Partner aus der Industrie zukunftsfähige Konzepte an realen Anlagenkomponenten erproben.Die Hochschule für Technik und Wirtschaft Dresden (HTW) hat im Herzen des Silicon Saxony eine Industrie-4.0-Modellfabrik aufgebaut, die getrau dem Motto ‚Digitalisierung erlebbar machen‘ vor allem als Forschungs- und Demonstrationsplattform dient. Geleitet von Professor Dr. Dirk Reichelt ist auch ein Industrial Internet of Things (IIoT) Testbed entstanden, das einen diskreten Fertigungsprozess samt typischer Industriekomponenten abbildet, um die realitätsgetreue Arbeit an IoT-Anwendungen im Umfeld komplexer Fertigungs- und Logistikprozesse zu ermöglichen. „Das Testbed kombiniert eine Vielzahl von technischen Systemen, mit denen sich typische industrielle Anwendungsfälle einfach und schnell nachbilden lassen“, sagt Dirk Reichelt, Professor an der Fakultät Informatik und Mathematik der HTW Dresden, Fakultät Informatik und Mathematik.

OPC-UA-Server im Einsatz
Die technische Ausstattung besteht aus drei integrierten Roboterzellen, einer flexiblen Roboterzelle, einer CNC-Zelle, einem Hochregallager, unterschiedlichen technischen Modulen, um Anwendungsfälle wie Drucken, Prüfen oder Pressen nachzubilden, einem Handarbeitsplatz, einer Cobot-Station und mehreren fahrerlosen Transportsystemen. Ergänzt wird die Umgebung durch Systeme zur Datenerfassung und Verarbeitung – beispielsweise wird der Energiebedarf gemessen und dann in Beziehung zu Anlagen und Produkten gesetzt. Mit unterschiedlichen Real Time Location Services lassen sich die Positionen von beweglichen Objekten im Raum ermitteln und diese in ihrer Bewegung verfolgen. Unterschiedliche Sensorsysteme auf RFID-Basis und anderen funkbasierten Technologien erlauben die Erfassung von Messwerten. Speicherprogrammierbare Steuerungen (SPS) verschiedener Hersteller kommen ebenfalls zum Einsatz und sind mit einem OPC-UA-Server ausgestattet. Über diese Schnittstellen werden die Daten aus der Steuerung kontinuierlich erfasst und in einem Data Lake gespeichert. Basierend auf diesen Daten werden unterschiedliche Demonstratoren realisiert. Das Testbed beherbergt auch den Trail ‚Industrial IoT Testbed‘ des Dresdner Smart Systems Hub. In diesem Trail präsentieren die Testbed-Macher die in Zusammenarbeit mit Unternehmen entstanden Lösungen für die Realisierung von Use Cases. „Dies reicht von der Messung von Temperaturdaten mittels RFID-Sensor im Ofen über Lösungen für eine Prozessüberwachung aus der Cloud bis hin zu Konzepten für die Anbindung von Anlagen über eine LiFi-basierte Verbindung“, erläutert Professor Reichelt den Trail.

Arbeit mit realen Anlagendaten

„In unseren FuE-Arbeiten als Informatiker hantieren wir häufig mit einer Menge von Daten“, so Professor Reichelt. „Daten sind in der Regel immateriell und schwer greifbar. Daher entstand bei meinen Mitarbeitern und mir die Idee, eine Anlage zu schaffen, mit der sich der Ursprung der Daten zeigen lässt und mit der wir und unsere Partner in Forschung und Entwicklung reale Maschinen- und Anlagendaten nutzen können.“ Damit lassen sich die dabei gewonnen Erkenntnisse schneller und effizienter in der Praxis übertragen. Das Ziel von Reichelt und seinem Team war, eine Umgebung zu schaffen, in der alle wesentlichen Systemkomponenten einer Industrie-4.0-Fertigung abgebildet sind. „Mit den zusätzlich geschaffenen Umsystemen zur Lokalisierung und Sensorwerterfassung konnten wir genau dies erreichen“, bilanziert der Spezialist für Informationsmanagement.

 

Der Artikel erschien auf IT&Production »

Schkeuditz/Dresden, 8. Juni 2018

 

camLine feiert Richtfest: Neues Bürogebäude entsteht in Dresden Nord

Der Rohbau steht, der Dachstuhl ist errichtet: Am Donnerstag, den 5. Juli 2018 feiert das Software-Unternehmen camLine Richtfest für sein neues Bürogebäude am Standort Dresden. Für Konzeption, Planung und Bauausführung zeichnet sich Vollack, Spezialist für methodische Gebäudekonzeption, verantwortlich. Die Arbeiten liegen im Zeitplan, sodass die Mitarbeiter voraussichtlich Ende des Jahres die neuen Büros beziehen können.

camLine, global agierender Anbieter von Softwarelösungen für die Produktionsautomatisierung und -logistik, ist auf Expansionskurs am Standort Dresden. camLine Dresden ist seit der Gründung vor vier Jahren so stark gewachsen, dass die angemieteten Räumlichkeiten in der Innenstadt nicht mehr ausreichen. Durch camLine Dresden ist es der camLine Gruppe gelungen, die Marktposition innerhalb der Photovoltaik- und Mikroelektronikbranche weltweit weiter auszubauen. Die Unternehmensgruppe hat sich deshalb entschieden, in Dresden Nord ein neues Bürogebäude zu errichten, wobei die Wirtschaftsförderung der Stadt Dresden tatkräftig unterstützt hat. Heinz Linsmaier, Vorstandsvorsitzender der camLine Holding AG, sagte anlässlich des Richtfests: „Die Investition ist ein Bekenntnis zum Standort Dresden und ein klares Signal an unsere Kunden und Mitarbeiter. Wir sehen hier Potenzial für weiteres Wachstum und schaffen mit unserem neuen Bürogebäude optimale Voraussetzungen dafür.”

„Wir freuen uns, dass der Bau so zügig vorangeht und wir camLine beim Genehmigungsmanagement und beim Thema Förderung erfolgreich unterstützen konnten. Der Mittelstand in Dresden wächst. Und wir schaffen, wie hier im Dresdner Norden, die Möglichkeiten dafür”, so Dr. Robert Franke, Leiter des Amtes für Wirtschaftsförderung der Landeshauptstadt Dresden.

 

Angenehmens Arbeitsumfeld schaffen
Mit der Konzeption, Planung und Bauausführung der modernen Arbeitswelten hat camLine den Gebäudespezialist Vollack beauftragt. Ulrich Henneke, Partner bei Vollack: „Flächendeckend gekühlt und belüftet, wird das Gebäude sowohl technisch als auch gestalterisch für eine angenehme Atmosphäre sorgen. Eine Besonderheit ist der Rekreationsbereich mit angeschlossener Dachterrasse. Er gibt viel Freiraum und ermöglicht so den wichtigen Ausgleich zwischen konzentriertem und kreativem Arbeiten.”

Kunden Sicherheit vermitteln

Damit entstehen gute Voraussetzungen, um die Wachstumspläne des Software-Unternehmens in Dresden zu realisieren. Nach Ansicht der beiden Geschäftsführer von camLine Dresden Andreas Strauch und Frank Bölstler hat die Investition auch einen positiven Effekt auf die Kunden: Sie gebe ihnen die Sicherheit, dass hinter dem noch jungen Standort camLine Dresden eine starke, finanzkräftige Firmengruppe stehe. Der neue Firmensitz punktet auch durch seine Nähe zum Flughafen und zum Autobahndreieck Dresden-Nord – ein weiterer Vorteil für Mitarbeiter und Kunden.

 

Vollack

Mit einem Team von 300 Mitarbeitern, davon 150 Architekten und Ingenieuren, ist Vollack Spezialist für die methodische Planung, den Bau sowie für die Revitalisierung nachhaltiger, energieeffizienter Gebäude im Bereich Büro, Industrie und Gesundheit. Je nach Kundenwunsch übernimmt Vollack die Generalplanung und Projektsteuerung, die komplett schlüsselfertige Ausführung oder realisiert als Projektentwickler individuelle Mietflächen für Unternehmen, die nicht selbst investieren möchten. Methodisch konzipierte Arbeitswelten für die stetige Optimierung ihres Geschäfts machen Vollack zu einem langjährigen Wegbegleiter namhafter Unternehmen der unterschiedlichsten Branchen. Genau zugeschnitten auf den Bedarf und die Prozesse der Kunden entstehen nach der Phase NULL® kundenindividuelle Lösungen mit Alleinstellungscharakter. Dezentral organisiert unterstützt die Unternehmensgruppe Auftraggeber bundesweit.

Petershausen, 24.04.2018

 

camLine führt die Version 7.1 von Cornerstone in den Markt ein

Neuartige Engineering Analytics für Lean Six Sigma

Die camLine GmbH, Anbieter von Software für Operational Excellence Lösungen in der Industrie, führt die Version 7.1 von Cornerstone in den Markt ein. Die neue Version der Engineering-Statistik-Lösung für schnelles Experimentdesign und effektiver Datenanalyse bietet neue Visualisierungen für noch schnellere Ursachenanalysen und erweiterte Big-Data-Funktionen. Gepaart mit grafischen Verbesserungen wie Alpha-Blending, erweitern die neu angebotenen Methoden und Ansätze den Effizienzvorsprung in der Engineering-Datenanalyse. Das Leistungsspektrum der Software reicht von analytischen Anwendungsbereichen wie technische Statistik, Versuchsplanung (DoE) bis hin zur explorativen Datenanalyse.

Ein Hauptmerkmal in der Version 7.1 von Cornerstone ist die neuartige Visualisierung des Multi-Category-Charts. Diese grafische Darstellung ermöglicht die gleichzeitige visuelle Analyse von bis zu 100 kategorischen Variablen und bietet die Grundlage einer hoch effizienten Ursachenanalyse. Zusammen mit den neuen Multi-Vari-Charts erhalten Six Sigma-Ingenieure Werkzeuge, mit denen auch große Datenmengen aus Big Data Infrastrukturen bearbeitet werden können. Letztere sind über mehrere neue Schnittstellen und Methoden neu angebunden worden und erlauben wesentlich effektivere Datenanalysen. Verbesserungen in den grafischen Darstellungen durch erweiterte Farbpaletten, Echtfarbunterstützung, Anti-Aliasing und Alpha-Blending unterstützen die Effektivität bei der Analyse immer größer werdenden Datenmengen.

Weitere informationen zur neuen Cornerstone Version 7.1 finden Sie hier »

Petershausen, 8.12.2017

 

camLine GmbH stellt XperiDesk 5.4 vor

Schnellere Navigation durch die Experiment-Daten-Wolke

Die camLine GmbH, Entwickler von Software-Lösungen für Manufacturing Excellence, bringt XperiDesk (XD) 5.4 auf den Markt. Durch die Rationalisierung bestehender und die Erweiterung mit diversen neuen Funktionen stärkt das neue Release die führende Position von XD unter den Process Development Execution Systemen (PDES).

Die Highlights der Erweiterungen von XD 5.4 reagieren damit auf die aktuellen Anforderungen im Markt: Die Benutzer können nun frühere Suchergebnisse als Selektor für die semantische Relationssuchen verwenden, Parameter können in (mehrere) Verzeichnisse sortiert werden, und die Herstellbarkeitsprüfung evaluiert nun auch berechnete Parameter. Nicht zuletzt wurde der Back-End-Technologie-Stack von XperiDesk komplett erneuert, um mehr Leistung, Vielseitigkeit und Wartbarkeit zu bieten.

Mit der Suchergebnis-basierten Beziehungssuche ist es viel einfacher geworden, iterativ die Versuchsdaten zu durchsuchen. Wie zuvor kann der Benutzer oder die Benutzerin nach einer Menge von Entitäten suchen, die seine/ihre Suchkriterien erfüllen. Eine Mehrfachauswahl dieser Ergebnisse kann dazu verwendet werden, das semantische Experiment-Netzwerk anhand der Beziehungen weiter zu durchsuchen. Da dieser Ansatz wiederholt werden kann, kann der Benutzer oder die Benutzerin einfach durch die Wolke von Experimentergebnissen navigieren. Dies war zuvor nur für ein einzelnes Element unter Nutzung der Beziehungsdiagrammansicht möglich. Eine weitere Verbesserung ist die erweiterte Funktionalität der Sortierung von Parametern in Verzeichnisse. Diese häufig angeforderte Funktion verbessert die Übersicht in den zuvor flachen Parameterwartungsansichten und ermöglicht es sogar, einen Parameter in mehrere Verzeichnisse zu sortieren. Auf diese Weise ist es möglich, ein und denselben Parameter aus verschiedenen Perspektiven / Kategorien zu finden. Die Herstellbarkeitsprüfung wurde ebenfalls erweitert. Bei der Herstellbarkeitsprüfung früherer Versionen wurden nur die bereits flachen numerischen Parameter berücksichtigt. Mit der Erweiterung in Version 5.4 werden nun auch Parameter berücksichtigt, die rekursiv aus anderen Parametern berechnet werden.

Weitere Verbesserungen sind die nahtlose Synchronisation von derzeit in Produktion befindlicher Runs zwischen dem Full- und dem Operator-Client und die vielseitigere Verwendung von regulären Ausdrücken im MS Excel Import-Client. Schließlich sollte erwähnt werden, dass XD 5.4 mit verschiedensten Verbesserungen in Bezug auf Geschwindigkeit, Rationalisierung der Benutzerführung und der sichereren Verwendung durch mehrere parallel nutzende Organisationen einhergeht. In allen Fällen empfiehlt camLine das Upgrade auf XD 5.4 für bestehende Kunden.

Ein englischsprachiges Einführungsvideo zu XperiDesk finden Sie hier.

Petershausen, 24. Oktober 2017

 

camLine veröffentlicht LineWorks RM 6.1

Mit mehr Kontrollmöglichkeiten auf Parameterebene

 

Das Software-Unternehmen camLine hat sich auf die Entwicklung von Manufacturing-Excellence-Lösungen spezialisiert und gibt die neue Version 6.1 seines Rezeptverwaltungssystems als LineWorks RM bekannt. Dabei handelt es sich um eine vernetzte, IT-basierte Infrastrukturlösung für die Fertigung mit der Intention, den Nachweis für die eindeutige Identifikation von gesamten Herstellvorgängen übergreifend zu erbringen. Während sich verkaufsfähige Produkte und Maschinen zur Herstellung auf vielfache Weise und verhältnismäßig einfach, eindeutig registrieren lassen, ist für die Fertigung die Erfassung der Identität von ganzen Prozessen und deren Veränderungen eine spezielle Herausforderung. Sie kann weitreichende Konsequenzen für die Hersteller bezüglich ihrer künftigen Wettbewerbsfähigkeit haben. Das Management von Prozessveränderungen und deren Rückverfolgbarkeit ist mit vielen Geschäftsprozessen verbunden. In der effizienten Rationalisierung dieser Geschäftsvorgänge liegt beachtenswertes Potential zur Senkung der Herstellkosten.

 

Mit der Veröffentlichung der Version 6.1 sind erweiterte Funktionen im Bereich der Parameter und des Recipe Body Managements, der Recipe Objects Visualisierung sowie Validierung verfügbar. Außerdem, wurden Verbesserungen der Benutzeroberfläche vorgenommen.

Mit den neu eingeführten Parameter Tags und Optionen, hat der Benutzer weiterentwickelte Möglichkeiten, Parameter basierend auf ihrer Nutzung zu klassifizieren. Zusätzlich ist es möglich, Parameteroptionen auf Parameterebene zu speichern. Diese Optionen sind als name-value pairs / Namenswertpaare (Zusatzdaten) pro Parameter gespeichert. Es kapselt benutzerdefinierte Flags / Optionen ein, die später von der EI (Equipment Integration) des Kunden interpretiert werden.

Kundenspezifischen Validierungsregeln können in den Recipe Object Validatoren definiert werden. Durch die Rezeptobjektvorlagen ist es möglich die Validierungen kontrolliert zu aktivieren. Dies sorgt für einen graduellen Einsatz der neuen Validierungen.

Die neue Version bietet eine flexible und konsistente Benutzeroberfläche, um das benutzerdefinierte Recipe Object und die Recipe Body Visualisierungen einzurichten.

Zudem profitiert der Endbenutzer vom Single-Sign-On über die verbesserte Benutzeroberfläche. Außerdem wird die Verwaltung der Benutzer und Benachrichtigungen in einer einheitlichen webbasierten Benutzeroberfläche konsolidiert.


Erfahren Sie mehr über LineWorks RM Version 6.1 »

Petershausen, 18. Mai 2017
Maschinenanbindung leicht gemacht

 

Agil automatisieren mit Standardschnittstellen

 

Das Ziel jeder automatisierten Fertigung ist es, das richtige Material zum richtigen Zeitpunkt an den richtigen Platz zu transportieren und nach Vorgabe zu fertigen. Mit einem Manufacturing Execution System lässt sich auch die automatisierte Fertigung in Echtzeit orchestrieren. Dabei lassen sich Einführung und Umrüstung dieser Anwendungen wesentlich kostengünstiger realisieren, wenn vorhandene Standardschnittstellen zur Anbindung von Maschinen und Anlagen benutzt werden.

Die Automatisierung einer Fertigung kann als intelligentes und integriertes System verstanden werden, in dem die Betriebsmittel koordiniert und kontrolliert werden. Die Automatisierung transportiert Material, startet und stoppt Fertigungsprozesse, überwacht den Betrieb und sammelt Prozessdaten. Sie passt Rezeptparameter an und dokumentiert Anlagenstatus sowie Qualitätskennzahlen. Intelligenz braucht die Automatisierung an allen Positionen, die andere Stellen innerhalb der Fertigung beeinflussen.

Evolution durch Rechenleistung
Die Automatisierung wurde vor 20 Jahren noch deutlich von den verfügbaren Rechnerkapazitäten limitiert. Das veränderte sich mit der Zeit und bestehende Fertigungen wurden nachgerüstet. Das führte in vielen Werken zu einer Sammlung von Insellösungen, die sich nur mit Mühe und hohen Kosten integrieren lassen. Dem Anwender kam in solchen Umgebungen mitunter die Rolle einer einfachen Schnittstelle zwischen den Systemen zu.

Warum braucht es Automation?
Automatisierungslösungen helfen den Unternehmen dabei, eine Serienproduktion schneller und mit einer höheren Ausbeute – bei gleichzeitiger Kostenkontrolle – zu realisieren. Das bildet die Grundlage für den geschäftlichen Erfolg, geht es doch darum, mit einem Produkt als Erster am Markt zu sein, um die höchste Profitabilität zu erreichen. Zudem müssen die Fertigungskosten stets bekannt und möglichst niedrig sein, um im Preiskampf mithalten zu können.

Maschinenanbindung wird schnell teuer
Bei einer Fließfertigung, welche sich durch eine hohen Automatisierungsgrad, geringe Produktvielfalt und einen hohen Durchsatz auszeichnet, lassen sich Anlagen miteinander horizontal und vertikal mit einem MES verknüpfen. Im Gegensatz dazu werden für eine Werkstattfertigung, etwa bei der Fertigung von Halbleiterelementen, meist ausschließlich vertikale Anlagenschnittstellen benötigt. Die höhere Produktvielfalt und Flexibilität einer Werkstattfertigung verursacht einen deutlich höheren Aufwand für die Automatisierung, wenn der gleiche Grad angestrebt wird. Auch das angebundene MES wird komplexer. Für horizontale Schnittstellen können Protokolle wie CAN, Modbus, Sercos oder Profibus eingesetzt werden. Vertikale Schnittstellen werden durch SECS/GEM, OPC UA, Soap oder auch einfache dateibasierte Protokolle bedient. Teilweise beschreiben diese Protokolle nur, wie kommuniziert werden soll. Projektspezifisch muss für jede Schnittstelle der Inhalt (das Was und Wann) und eine wertige Datenqualität umgesetzt werden. Hier sollten standardisierte Schnittstellen verwenden werden. Ansonsten können die Kosten für die Integration von Anlagenschnittstellen bis zu 60 Prozent der Gesamtkosten eines IT-Projektes ausmachen.

Wenig Aufwand durch Standardschnittstellen
Für Anlagenhersteller fallen bei standardisierten Schnittstellen keine Softwareänderungen während der Inbetriebnahme an, da die Schnittstelle einer Spezifikation der Automatisierungsszenarien unterliegt. Für den Systemintegrator wird durch standardisierte Schnittstellen sichergestellt, dass korrekte Daten an der Schnittstelle anliegen und dadurch Anpassungen während der Inbetriebnahme reduziert werden. Die Verfügbarkeit von Prozessdaten während der Start-Phase und die Möglichkeit der Remote-Steuerung der Anlagen unterstützen den Fabrikbetreiber beim schnellen Ramp-Up seiner Fertigung. In der Praxis helfen gerade standardisierte Schnittstellen dabei, zusätzliche Integrationsarbeiten zu vermeiden und damit die Projektlaufzeit sowie das Projektbudget einzuhalten.

Der Artikel erschien auf IT&Production »