Petershausen, 6. September 2019

 

InFrame Synapse Equipment Connector:

Kosten für IIoT-basierte Maschinenintegration um bis zu 75 Prozent reduzieren


Das A und O für eine Optimierung der Fertigungsprozesse und den künftigen Markterfolg besteht darin, sämtliche Anlagen des Maschinenparks im Sinne des IIoT und von Industrie 4.0 einfach, schnell und zu überschaubaren Kosten zu vernetzen. Das gelingt mit dem InFrame Synapse Equipment Connector (EQC) von camLine.

 

Der InFrame Synapse Equipment Connector (EQC) von camLine macht damit Schluss. Die innovative Integrations¬software ermöglicht Fertigungsunternehmen, nicht IIoT- fähige Anlagen nach dem Plug&Play-Prinzip schnell und einfach mit einer Schnittstelle auszustatten und an ihr MES anzubinden. Dank offener Schnittstellen lässt sich EQC mit jedem MES verknüpfen, ob von camLine oder einem anderen Hersteller, und er kann zudem mit allen gängigen Maschinensteuerungen (SPS) kommunizieren. Umgekehrt profitieren aber auch Anlagenhersteller, die mit EQC ohne großen Aufwand standardkonforme oder individuelle Schnittstellen für ihre Maschinen realisieren und preiswert zur Verfügung stellen können. Fertigungsunternehmen kommen in Zeiten des digitalen Wandels nicht darum herum, den ganzen Maschinenpark im Sinne eines Industrial Internet of Things (IIoT) zu vernetzen und in das vorhandene Manufacturing Execution System (MES) zu integrieren. Nur so wird das Produktionsgeschehen vollständig transparent. Das ist die Voraussetzung, um im Shopfloor weiteres Optimierungspotenzial zu heben, die Produktivität zu steigern und ein Tracking und Tracing zu etablieren, aber auch für eine effizientere und genauere strategische Planung.

 

Anlagen per Plug&Play IIoT-fähig machen

Hier gibt es großen Nachholbedarf, da die Maschinenparks oft über Jahre gewachsen sind und auch aus Anlagen bestehen, die keine IT-Schnittstelle haben und nicht IIoT-fähig sind. Die nachträgliche Entwicklung und Programmierung von Datenschnittstellen zur Anbindung solcher Maschinen an ein MES ist zeitaufwendig und mit hohen Kosten verbunden.

Bis zu 75 Prozent weniger Kosten

Da die Erstellung von Schnittstellen per Konfiguration erfolgt statt durch Programmierung, reduziert das die Kosten enorm, zum Teil um bis zu 75 Prozent. Das ist ein echter Mehrwert genauso wie der geringe Aufwand bei der Schnittstellenimplementierung und der MES- Anbindung. camLine unterstützt die Kunden dabei mit einem Know-how, das auf über 30 Jahren Erfahrung beruht und auch in EQC eingeflossen ist. Als Mitglied im Halbleiter- und Fotovoltaikverband SEMI wirkte camLine aktiv an der Entwicklung von Schnittstellenstandards (SECS/GEM) mit.

Artikel erschien in der Ausgabe 2019/20 von IT & Production Wissen Kompakt IoT Internet of Things auf Seite 19.

Lesen Sie die die komplette Ausgabe 2019/20 IT & Production Wissen Kompakt IoT »

Petershausen, 22nd August 2019

 

Automation and Intuition: Big Data and the Human Side of Manufacturing

The fourth industrial revolution is well underway. Industry 4.0 has gone from being the name of a German government project, to an industry-wide trend encompassing end-to-end digitisation and data integration across whole enterprises.

 

Physical equipment can now have a 'Digital Twin' – a virtual representation of itself – which is able to inform predictions and subsequent processes. Automation is at an all-time high in terms of decision making and process control.

 

Subsequently, we have more data than ever with which to inform business decisions. From machines at the heart of the manufacturing process to incidental mechanisms like the supply chain or transportation, big data is providing the basis for better and quicker strategic decisions.

 

The potential that big data has to make operations more cost-effective is obvious. A 2017 survey from management consultancy McKinsey&Company suggested that the implementation of Big Data in manufacturing could boost pre-tax margins by 4-10%, enhancing everything from machine life to increased output.

 

The seemingly obvious conclusion — which is that you should push the benefits of big data to the maximum, quantifying and automating as much as you can — is not the case. The most effective enterprises will recognise the limitations of Industry 4.0 and continue to value the expert on the manufacturing floor, marrying individual intuition with automation.

 

Man vs machine

The cliché that automation can lead to the total removal of the engineer from the manufacturing floor is a pipedream, at least for our lifetime - we would need far more sophisticated AI mechanisms to make this a reality. The most effective digitalisation that we can implement right now remains at least partially reliant on the boots on the ground. No matter how many metrics at your disposal, there are always insights that human experience, expertise and intuition can offer that won’t be picked up by digital measurements.

For example, in virtually every line of manufacturing, the machines are unique; built to the same specifications but with tiny individual differences. Parts will have unique wear and tear, produce different sounds due to being in different areas of the factory floor, and so on. Big data drawn from these machines is not going to recognise these differences, which can lead to inexplicable differences in the data results.

If an operator has been working with an individual machine for long enough, he can feel whether or not a machine is working through vibrations, noises, appearance, etc. Data isn’t capable of replicating this or providing the context for it, and in many cases an operator’s annotations of a data sheet may offer greater insight than further digital analysis.

Utilising dark data

It’s also true that, even with modern data analysis techniques, the sheer volume of data that a manufacturer produces is too much to use. Dark data — data that you record and don’t use, or that isn’t recorded at all — can’t contribute to the insights that an analyst is trying to glean.

Many companies aren’t even aware of the dark data they store, whereas others simply log it and forget it until a point at which they can make use of it. Given that IBM estimates that 90% of the data generated by sensors and analogue-to-digital converters is never used, and that most companies only analyse 1% of the data, huge opportunities for further insight are being passed up by failing to utilise this resource.

Again, this is where human interpretation and intuition is capable of making the difference. Data scientists can offer an entirely new perspective, bringing light to dark data by reframing it in more accessible formats. They can ask the right questions, align the data of interest, and clean the results to make them more useful to decision makers; without human inputs to define the right context, you’re not going to maximise the utility of your data.

Finally, the unpredictability of human interference can also be difficult for data analytics alone to diagnose. The parameters of data analysis are limited to things directly related to a machine. They won’t, for example, explain how other human processes may disrupt things like performance, or even the analytics process itself – you’ll need to work that out for yourself.

For example, we have previously worked with an automotive manufacturer that found the wireless system used to underpin IoT communications on the manufacturing floor would regularly drop out during the same period every morning. The data showed the loss of connectivity, but it took human intervention to identify the problem; the network was disrupted every time an employee used the microwave to heat their breakfast!

All of these examples demonstrate the importance of the individual engineer, and the impact that they can have on the overall profitability of a manufacturing business. A talented individual is capable of filling in the gaps in our current data analysis; can make the most of the data that we fail to understand or use at all; and is capable of understanding the behaviour of his/her co-workers more than any machine. The manufacturers who want to run the most insightful and cost-effective operations cannot underestimate the influence that the individual can have on both profit margins and internal processes.

This article was published on www.eenewseurope.com »

Petershausen, 7th August 2019

 

Manufacturing misconceptions: The difficulties of tackling big data

The advent of Industry 4.0 offers huge potential to explore new and exciting changes to the manufacturing floor, comments Dirk Ortloff, Department Manager, camLine.

Intelligent machines capable of “speaking” to one another and collating a myriad of complex data promises huge improvements in productivity … and fundamental changes to the ways in which we view manufacturing efficiency.

However, the wealth of data available to manufacturing organisations is growing larger by the year, increasing the complexity of its analysis. Industrial equipment is becoming capable of storing and sharing types of data that were previously impossible, such as the capture of vibration data to contribute towards wear analysis, in increasingly intimidating volumes.

With the speed of development inherent in Industry 4.0 and the sheer volume of data at hand, many manufacturing organisations simply don’t have the know-how to handle big data storage and analysis. Facing data in more formats and higher volumes than ever before, it’s no surprise that they can be overwhelmed; it’s easy to miss the wood for the trees and fail to take full of advantage of the resources to hand.

To avoid missing out on the benefits of appropriate analysis, manufacturers are increasingly looking to in-vogue data analysis techniques to benefit from the most up-to-date procedures.

In-vogue inaccuracies

For example, it’s common for manufacturers to begin with a “data lake” to analyse all of the available data at once. On the surface, the logic is sound; the more data in your analysis, the more insight you can potentially receive. If you consider everything, you don’t omit a crucial outlier or an interesting correlation.

However, this is going to lead to performance issues. Larger data sets take far longer to analyse, especially if online analysis is part of the remit. A company in high-volume manufacturing may produce millions of units in the time it takes to analyse their operational data, only to discover that their processes are far less cost-effective then they thought. This can have a huge impact on the company’s cost margins and will reflect poorly on those responsible.

However, if a data lake approach fails to deliver the desired benefits, we often see people turn to a range of so-called cutting-edge techniques that threaten similar drawbacks if not deployed correctly. As trends in analytics come to the fore, promising results and new ideas can make people overexcited. But it’s easy to apply them inappropriately and end up with unusable, inefficient or misleading results.

For instance, if the data lake approach fails to work, many opt for the polar opposite: a “gathering and systemising” approach. This involves merging as many data bins as possible with a very strong emphasis towards systemising them — with data analysis only beginning once the bins have been systemised.

There’s a serious risk of falling off the other side of the horse here. In many cases, the systemisation doesn’t end, meaning that the data can’t be analysed. This makes it impossible to secure a quick win, with many organisations racking up high costs with no tangible benefit.

Another mistake that many make is opting to conduct data searches without a specific target. This inexpensive technique will select a bulk of data and use neural networks to search for anything interesting — standout results, repeating sequences, particular correlations, etc. This is often performed inexpensively by a trainee.

Without an appropriate data set, this will often lead to unsatisfactory results. It’s difficult to glean any valuable insight without a clearly defined goal; as the process tends to do away with method selection, the results are often far below expectations.

Determining direction

This all demonstrates how unwise it is for companies to commit to in-vogue analytics trends without a serious appraisal of use cases, methodology and the options available to them. It’s understandable to look at successful examples when attempting to find a solution, but data is far more complicated than that.

Attempting to emulate others without a grounding in the logic behind their decision will do more harm than good, particularly when it comes to adding value and cost-benefit ratios.

This is being recognised by even the highest powers, who are investing in education and data analysis applications. One example is the PRO-OPT research and development project, funded by the Federal Ministry for Economic Affairs and Energy of Germany. The PRO-OPT project looked to help companies operating in "smart ecosystems."

These ecosystems are immensely complex. Modern companies generating huge volumes of data will almost always have infrastructures spanning countries or even continents, as well as external partners to consider. With companies looking to outsource services such as manufacturing specialist parts, original equipment manufacturers (OEMs) are an example of specialist consultants who will invariably have a complex data infrastructure themselves, further complicating analysis.

Companies without experience in high-volume data analysis will find it extremely difficult to collate all of this data and properly investigate it. PRO-OPT aims to educate and support companies in the analysis of these huge volumes of data. The importance of its mission was recognised by backing from major German corporations including Audi and Fraunhofer IESE.

To examine one PRO-OPT use case, the project tested a wide variety of production data modelling approaches on the data of a leading automotive supplier. This exercise attempted to identify and demonstrate

  • the difficulties of systematically merging different data buckets
  • the possible modelling of the data in databases that are specifically designed to help analysts tackle large sets of distributed data
  • the actual analysis of these large data collections.

Success would mean being able to apply and compare statistically reliable analyses and classification procedures, as well as new procedures from AI instruments.

Sticking up the data bank

This use case stands out as it clarifies the challenges that companies with limited expertise in data analytics face. Without comprehensive preparation, an awareness of the options available and experience of executing them, organisations are inevitably going to hit unexpected roadblocks.

These can start before the process even begins. Securing a tool that could analyse and manipulate data is obviously very important; new technologies, or means of analysing data, have exciting potential. But when you have a new hammer, it’s easy to forget that some things aren’t nails. It’s crucial not to overlook reliable means of exercising control over the data you have.

Statistical process control (SPC) is a tried-and-tested means of doing so. Defined as “the use of statistical techniques to control a process or production method,” SPC was pioneered in the 1920s. The modern iteration is a technology that offers huge synergy with new data analytic techniques.

The ability to make vital production data available ad hoc, for example, or to automate actions to take place in real-time when certain parameters are met, make SPC an incredibly powerful tool through which to interact with data.

To get the most out of an SPC system, and to allow it to analyse and action changes based on data, it needs results to be loaded into a specialised database. The complex datasets required will often have thousands of variables, all of which need meaningful column names. Many databases don’t have the number of columns needed or a limit on the names you can give these columns — so how do you stop this seriously limiting your analysis capabilities?

Once the analysis is under way, does your organisation have the time and schedule to make it cost-effective? Most SPC solutions operate offline, analysing data retrospectively; only the most modern solutions are able to analyse online, in real-time. How do you balance the analysis you need with the manufacturing output that you require?

Beyond this, even if you can employ a database that can handle the volume of data you are working with and have completed the analysis process, data needs to be presented in a digestible way. Datasets with millions of data points can’t be displayed in conventional XY scatter points as they’ll almost completely fill the canvas — even transparent data points aren’t of any use. How do you go about translating a blob of X million data points into actionable insights?

These are just examples of the tip-of-the-iceberg-level thinking required to perform effective analysis, which goes to show just how careful analysts need to be. Without a considered roadmap of the journey that the data needs to take, and how analysts will both identify the data they need and then break down the results, it is all too easy to fail.

However, with the right equipment and ethos, analysis that used to be inefficient owing to the sheer volume of data can offer completely new insights into production data.

This article was published on www.manufacturingchemist.com »

Petershausen, 14. März 2019

 

camLine auf der HANNOVER MESSE 2019

Digitale Fertigung „out of the box“, Wartung 4.0 und Co.

(PresseBox) ( Petershausen, 14.03.19 ) Das international tätige Softwareunternehmen camLine präsentiert sein Lösungs- und Serviceportfolio zur Steigerung der Fertigungsexzellenz und für die digitale Fabrik auf der HANNOVER MESSE (1.– 5. April 2019) in Halle 7 (Digital Factory) am Stand C25. Im Mittelpunkt des Messeauftritts stehen die modulare und schlanke Manufacturing-Software Inframe Synapse MES mini für kleine mittelständische Fertiger und als Neuheit die LineWorks Machine Maintenance Solution (MMS) für smarte Wartungsprozesse.

 

Inframe Synapse MES mini: Schneller Einstieg in die digitale Produktion

Inframe Synapse MES mini bietet „Out of the box“ den schnellen und kostengünstigen Einstieg in digitale Fertigungsprozesse, aber auch in die Nachverfolgbarkeit – Stichwort Tracking und Tracing. Die Lösung kann innerhalb von vier Wochen implementiert werden und amortisiert sich schnell. Sie ist dabei so flexibel skalierbar, dass sie problemlos mit einem Unternehmen mitwachsen kann, bis hin zum kompletten MES.

 

Um in der Produktion Schwachstellen zu identifizieren und Abläufe zu optimieren, werden die erfassten Produktions- und Prozessdaten in eine zentrale Datenbank geladen. Dort lassen sich die Daten per Knopfdruck auswerten, etwa in Bezug auf Durchsatz, Ausschuss, Produkthistorie oder Overall Equipment Effectiveness (OEE). Berichte zeigen übersichtlich visualisiert das Optimierungspotenzial in der Fertigung an.

 

Da InFrame Synapse MES mini Informationen aus Anlagen, aber auch zum Maschinenführer sowie zu gescannten Materialien oder Bauteilen erfasst, ermöglicht das ein Tracking und Tracing der Produktionsprozesse. Das ist gerade im Hinblick auf die Produkthaftung ein echter Mehrwert. Ein kurzweiliger Erklärfilm auf dem Youtube-Kanal von camLine liefert weitere nützliche Informationen zu Inframe Synapse MES mini. Das Video kann unter dem Link www.youtube.com/watch aufgerufen werden.

 

LineWorks MMS: Smarte Wartung als Enabler für Smart Factory

Mit LineWorks MMS als innovativer Infrastrukturlösung kann eine digitale und smarte Wartung für alle Anlagen in komplexen Produktionsstrukturen realisiert werden. Das erhöht die Verfügbarkeit, die Produktivität und die OEE des Maschinenparks deutlich, zugleich ist es ein Schlüsselfaktor und Enabler für die Smart Factory im Sinne von Industrie 4.0.

 

Anhand von Fehlerstatistiken und Lösungsvorschlägen, die LineWorks MMS bereitstellt, wird die Ursache für ein Problem oder einen Ausfall schnell erkannt, und die Wartung bzw. Reparatur kann zeitnah durchgeführt werden. Eine Workflow-Engine führt den Techniker Schritt für Schritt durch die Abläufe, die er somit sicher, also ohne Bedienfehler, und vor allem rasch erledigen kann, auch dank einer Echtzeitsicht auf die Ersatzteile im Lager. Sämtliche Arbeitsschritte werden protokolliert und lassen sich somit lückenlos nachvollziehen. Eine Gantt-Ansicht zeigt übersichtlich anstehende Wartungen, was eine effiziente und vorausblickende Planung von Technikereinsätzen ermöglicht.

 

LineWorks MMS beinhaltet zudem Funktionen für die Qualitätskontrolle, das OEE-Reporting oder die Zeitanalyse sowie einen Statusmonitor und zeichnet sich durch eine hohe Integrationsfähigkeit in Bezug auf die Anbindung an ERP-Systeme und Maschinen aus. Die Anpassung der Applikation, die alleinstehend oder im Verbund mit weiteren Modulen der LineWorks-Suite von camLine eingesetzt werden kann, an individuelle Prozessanforderungen erfolgt einfach und flexibel per Konfiguration.

 

camLine zeigt auf der HANNOVER MESSE außerdem weitere IT-Lösungen zur Steigerung der Fertigungsexzellenz: die LineWorks-Suite, deren Module sich zu einer maßgeschneiderten Anwendung kombinieren lassen, das leistungsstarke MES InFrame Synapse den Einstieg in die digitale Fabrik, auch für KMUs, das Process Development Execution System (PDES) XperiDesk oder die Statistiksoftware Cornerstone für Ingenieure mit deren Big-Data-Analysen sowie statistische Versuchsplanung (Design of Experiment, DoE).

 

Interessenten, die sich vor Ort über die Leistungsfähigkeit der Softwarelösungen und das Know-how von camLine im Bereich der Produktion informieren wollen, können unter info@camLine.com vorab einen Termin für ein persönliches Gespräch vereinbaren. Sie erhalten dann freien Eintritt für den Messebesuch.

Schkeuditz/Dresden, 8. Juni 2018

 

camLine feiert Richtfest: Neues Bürogebäude entsteht in Dresden Nord

Der Rohbau steht, der Dachstuhl ist errichtet: Am Donnerstag, den 5. Juli 2018 feiert das Software-Unternehmen camLine Richtfest für sein neues Bürogebäude am Standort Dresden. Für Konzeption, Planung und Bauausführung zeichnet sich Vollack, Spezialist für methodische Gebäudekonzeption, verantwortlich. Die Arbeiten liegen im Zeitplan, sodass die Mitarbeiter voraussichtlich Ende des Jahres die neuen Büros beziehen können.

camLine, global agierender Anbieter von Softwarelösungen für die Produktionsautomatisierung und -logistik, ist auf Expansionskurs am Standort Dresden. camLine Dresden ist seit der Gründung vor vier Jahren so stark gewachsen, dass die angemieteten Räumlichkeiten in der Innenstadt nicht mehr ausreichen. Durch camLine Dresden ist es der camLine Gruppe gelungen, die Marktposition innerhalb der Photovoltaik- und Mikroelektronikbranche weltweit weiter auszubauen. Die Unternehmensgruppe hat sich deshalb entschieden, in Dresden Nord ein neues Bürogebäude zu errichten, wobei die Wirtschaftsförderung der Stadt Dresden tatkräftig unterstützt hat. Heinz Linsmaier, Vorstandsvorsitzender der camLine Holding AG, sagte anlässlich des Richtfests: „Die Investition ist ein Bekenntnis zum Standort Dresden und ein klares Signal an unsere Kunden und Mitarbeiter. Wir sehen hier Potenzial für weiteres Wachstum und schaffen mit unserem neuen Bürogebäude optimale Voraussetzungen dafür.”

„Wir freuen uns, dass der Bau so zügig vorangeht und wir camLine beim Genehmigungsmanagement und beim Thema Förderung erfolgreich unterstützen konnten. Der Mittelstand in Dresden wächst. Und wir schaffen, wie hier im Dresdner Norden, die Möglichkeiten dafür”, so Dr. Robert Franke, Leiter des Amtes für Wirtschaftsförderung der Landeshauptstadt Dresden.

 

Angenehmens Arbeitsumfeld schaffen
Mit der Konzeption, Planung und Bauausführung der modernen Arbeitswelten hat camLine den Gebäudespezialist Vollack beauftragt. Ulrich Henneke, Partner bei Vollack: „Flächendeckend gekühlt und belüftet, wird das Gebäude sowohl technisch als auch gestalterisch für eine angenehme Atmosphäre sorgen. Eine Besonderheit ist der Rekreationsbereich mit angeschlossener Dachterrasse. Er gibt viel Freiraum und ermöglicht so den wichtigen Ausgleich zwischen konzentriertem und kreativem Arbeiten.”

Kunden Sicherheit vermitteln

Damit entstehen gute Voraussetzungen, um die Wachstumspläne des Software-Unternehmens in Dresden zu realisieren. Nach Ansicht der beiden Geschäftsführer von camLine Dresden Andreas Strauch und Frank Bölstler hat die Investition auch einen positiven Effekt auf die Kunden: Sie gebe ihnen die Sicherheit, dass hinter dem noch jungen Standort camLine Dresden eine starke, finanzkräftige Firmengruppe stehe. Der neue Firmensitz punktet auch durch seine Nähe zum Flughafen und zum Autobahndreieck Dresden-Nord – ein weiterer Vorteil für Mitarbeiter und Kunden.

 

Vollack

Mit einem Team von 300 Mitarbeitern, davon 150 Architekten und Ingenieuren, ist Vollack Spezialist für die methodische Planung, den Bau sowie für die Revitalisierung nachhaltiger, energieeffizienter Gebäude im Bereich Büro, Industrie und Gesundheit. Je nach Kundenwunsch übernimmt Vollack die Generalplanung und Projektsteuerung, die komplett schlüsselfertige Ausführung oder realisiert als Projektentwickler individuelle Mietflächen für Unternehmen, die nicht selbst investieren möchten. Methodisch konzipierte Arbeitswelten für die stetige Optimierung ihres Geschäfts machen Vollack zu einem langjährigen Wegbegleiter namhafter Unternehmen der unterschiedlichsten Branchen. Genau zugeschnitten auf den Bedarf und die Prozesse der Kunden entstehen nach der Phase NULL® kundenindividuelle Lösungen mit Alleinstellungscharakter. Dezentral organisiert unterstützt die Unternehmensgruppe Auftraggeber bundesweit.

Petershausen, 24.04.2018

 

camLine führt die Version 7.1 von Cornerstone in den Markt ein

Neuartige Engineering Analytics für Lean Six Sigma

Die camLine GmbH, Anbieter von Software für Operational Excellence Lösungen in der Industrie, führt die Version 7.1 von Cornerstone in den Markt ein. Die neue Version der Engineering-Statistik-Lösung für schnelles Experimentdesign und effektiver Datenanalyse bietet neue Visualisierungen für noch schnellere Ursachenanalysen und erweiterte Big-Data-Funktionen. Gepaart mit grafischen Verbesserungen wie Alpha-Blending, erweitern die neu angebotenen Methoden und Ansätze den Effizienzvorsprung in der Engineering-Datenanalyse. Das Leistungsspektrum der Software reicht von analytischen Anwendungsbereichen wie technische Statistik, Versuchsplanung (DoE) bis hin zur explorativen Datenanalyse.

Ein Hauptmerkmal in der Version 7.1 von Cornerstone ist die neuartige Visualisierung des Multi-Category-Charts. Diese grafische Darstellung ermöglicht die gleichzeitige visuelle Analyse von bis zu 100 kategorischen Variablen und bietet die Grundlage einer hoch effizienten Ursachenanalyse. Zusammen mit den neuen Multi-Vari-Charts erhalten Six Sigma-Ingenieure Werkzeuge, mit denen auch große Datenmengen aus Big Data Infrastrukturen bearbeitet werden können. Letztere sind über mehrere neue Schnittstellen und Methoden neu angebunden worden und erlauben wesentlich effektivere Datenanalysen. Verbesserungen in den grafischen Darstellungen durch erweiterte Farbpaletten, Echtfarbunterstützung, Anti-Aliasing und Alpha-Blending unterstützen die Effektivität bei der Analyse immer größer werdenden Datenmengen.

Weitere informationen zur neuen Cornerstone Version 7.1 finden Sie hier »

Petershausen, 8.12.2017

 

camLine GmbH stellt XperiDesk 5.4 vor

Schnellere Navigation durch die Experiment-Daten-Wolke

Die camLine GmbH, Entwickler von Software-Lösungen für Manufacturing Excellence, bringt XperiDesk (XD) 5.4 auf den Markt. Durch die Rationalisierung bestehender und die Erweiterung mit diversen neuen Funktionen stärkt das neue Release die führende Position von XD unter den Process Development Execution Systemen (PDES).

Die Highlights der Erweiterungen von XD 5.4 reagieren damit auf die aktuellen Anforderungen im Markt: Die Benutzer können nun frühere Suchergebnisse als Selektor für die semantische Relationssuchen verwenden, Parameter können in (mehrere) Verzeichnisse sortiert werden, und die Herstellbarkeitsprüfung evaluiert nun auch berechnete Parameter. Nicht zuletzt wurde der Back-End-Technologie-Stack von XperiDesk komplett erneuert, um mehr Leistung, Vielseitigkeit und Wartbarkeit zu bieten.

Mit der Suchergebnis-basierten Beziehungssuche ist es viel einfacher geworden, iterativ die Versuchsdaten zu durchsuchen. Wie zuvor kann der Benutzer oder die Benutzerin nach einer Menge von Entitäten suchen, die seine/ihre Suchkriterien erfüllen. Eine Mehrfachauswahl dieser Ergebnisse kann dazu verwendet werden, das semantische Experiment-Netzwerk anhand der Beziehungen weiter zu durchsuchen. Da dieser Ansatz wiederholt werden kann, kann der Benutzer oder die Benutzerin einfach durch die Wolke von Experimentergebnissen navigieren. Dies war zuvor nur für ein einzelnes Element unter Nutzung der Beziehungsdiagrammansicht möglich. Eine weitere Verbesserung ist die erweiterte Funktionalität der Sortierung von Parametern in Verzeichnisse. Diese häufig angeforderte Funktion verbessert die Übersicht in den zuvor flachen Parameterwartungsansichten und ermöglicht es sogar, einen Parameter in mehrere Verzeichnisse zu sortieren. Auf diese Weise ist es möglich, ein und denselben Parameter aus verschiedenen Perspektiven / Kategorien zu finden. Die Herstellbarkeitsprüfung wurde ebenfalls erweitert. Bei der Herstellbarkeitsprüfung früherer Versionen wurden nur die bereits flachen numerischen Parameter berücksichtigt. Mit der Erweiterung in Version 5.4 werden nun auch Parameter berücksichtigt, die rekursiv aus anderen Parametern berechnet werden.

Weitere Verbesserungen sind die nahtlose Synchronisation von derzeit in Produktion befindlicher Runs zwischen dem Full- und dem Operator-Client und die vielseitigere Verwendung von regulären Ausdrücken im MS Excel Import-Client. Schließlich sollte erwähnt werden, dass XD 5.4 mit verschiedensten Verbesserungen in Bezug auf Geschwindigkeit, Rationalisierung der Benutzerführung und der sichereren Verwendung durch mehrere parallel nutzende Organisationen einhergeht. In allen Fällen empfiehlt camLine das Upgrade auf XD 5.4 für bestehende Kunden.

Ein englischsprachiges Einführungsvideo zu XperiDesk finden Sie hier.

Petershausen, 24. Oktober 2017

 

camLine veröffentlicht LineWorks RM 6.1

Mit mehr Kontrollmöglichkeiten auf Parameterebene

 

Das Software-Unternehmen camLine hat sich auf die Entwicklung von Manufacturing-Excellence-Lösungen spezialisiert und gibt die neue Version 6.1 seines Rezeptverwaltungssystems als LineWorks RM bekannt. Dabei handelt es sich um eine vernetzte, IT-basierte Infrastrukturlösung für die Fertigung mit der Intention, den Nachweis für die eindeutige Identifikation von gesamten Herstellvorgängen übergreifend zu erbringen. Während sich verkaufsfähige Produkte und Maschinen zur Herstellung auf vielfache Weise und verhältnismäßig einfach, eindeutig registrieren lassen, ist für die Fertigung die Erfassung der Identität von ganzen Prozessen und deren Veränderungen eine spezielle Herausforderung. Sie kann weitreichende Konsequenzen für die Hersteller bezüglich ihrer künftigen Wettbewerbsfähigkeit haben. Das Management von Prozessveränderungen und deren Rückverfolgbarkeit ist mit vielen Geschäftsprozessen verbunden. In der effizienten Rationalisierung dieser Geschäftsvorgänge liegt beachtenswertes Potential zur Senkung der Herstellkosten.

 

Mit der Veröffentlichung der Version 6.1 sind erweiterte Funktionen im Bereich der Parameter und des Recipe Body Managements, der Recipe Objects Visualisierung sowie Validierung verfügbar. Außerdem, wurden Verbesserungen der Benutzeroberfläche vorgenommen.

Mit den neu eingeführten Parameter Tags und Optionen, hat der Benutzer weiterentwickelte Möglichkeiten, Parameter basierend auf ihrer Nutzung zu klassifizieren. Zusätzlich ist es möglich, Parameteroptionen auf Parameterebene zu speichern. Diese Optionen sind als name-value pairs / Namenswertpaare (Zusatzdaten) pro Parameter gespeichert. Es kapselt benutzerdefinierte Flags / Optionen ein, die später von der EI (Equipment Integration) des Kunden interpretiert werden.

Kundenspezifischen Validierungsregeln können in den Recipe Object Validatoren definiert werden. Durch die Rezeptobjektvorlagen ist es möglich die Validierungen kontrolliert zu aktivieren. Dies sorgt für einen graduellen Einsatz der neuen Validierungen.

Die neue Version bietet eine flexible und konsistente Benutzeroberfläche, um das benutzerdefinierte Recipe Object und die Recipe Body Visualisierungen einzurichten.

Zudem profitiert der Endbenutzer vom Single-Sign-On über die verbesserte Benutzeroberfläche. Außerdem wird die Verwaltung der Benutzer und Benachrichtigungen in einer einheitlichen webbasierten Benutzeroberfläche konsolidiert.


Erfahren Sie mehr über LineWorks RM Version 6.1 »