Sensor applications based on nano-and micro-technologies

With more than 100 online participants this event attracted a lot of specialists in the field. The presentations covered an amazing field of applications from the research phase as well as applied methods. Session one covered the applications for healthcare and session two had a focus on Nano-particle detection for nano-safety. Although both topics are not strictly separated.
Read briefly what the talks were about and follow the link to the presentations.

We learned from Prof. Yogendra Kumar Mishra, SDU, about new materials for sensing that base on ZnO in the form of tetrapods with fantastic properties allowing not only 3D structures but also the infiltration with other materials. The sponge-like structures allow the trapping of bacteria and have the potential to detect viruses applying antibodies. (Link to presentation)
Dr. Fabian Lofink, Fraunhofer ISIT, gave us insights on piezoelectric materials and their applications to MEMS sensors and a focus on AlScN and its recently discovered ferroelectricity. (Link to Fraunhofer ISIT)
A presentation by Dag Winther Svendsen, Abena, of integrated sensors and real-time data collection to help patients with incontinence problems gave practical insights into the development at Abena. (Link to webpage)
Lars Blohm, Campton Diagnostics, develops in cooperation with the Fraunhofer ISIT a silicon-based biochip platform that is applicable for a wide range of immunological and molecular-biological based tests. ( find the presentation here and the webpage)
Assoc. Prof. Jacek Fiutowski, SDU, introduced several methods that were investigated in the course of the CheckNano project to detect nanoparticles as they pose possible hazards to humans. To be able to detect them in real-life samples a combination of several methods seems best including separation and enrichment of nanoparticles and then a detection. (find the presentation here)
Dr. Coline Bretz, LS Instruments, introduced the possibilities that Static (SLS) and Dynamic (DLS) Light Scattering offers. New developments were explained, including the Modulated 3D Cross-Correlation technology for sample characterization. ( Link to the webpage .)
Dr. Christoph Johann, Wyatt Technology, is a specialist in asymmetrical Flow-FFF for the characterization of nanoparticles in dilute suspensions. Field-Flow Fractionation has the potential to separate nanoparticles in complex media. (find the presentation here and the webpage )

Schnellere Sensoren durch schablonenunterstützte Partikelanreicherung

Im CheckNano-Projekt haben wir zwei Alternativen und skalierbare Ansätze entwickelt, um mehrskalige Partikelarrays zu entwickeln, basierend auf capillary force assisted nanoparticle assembly (CAPA) und dem schnellen templatgestützten Einfangen von Silbernanokugeln mit topographisch gemusterten Polydimethylsiloxan-Formen (PDMS). Letzteres ist eine modifizierte Version des Template-Assisted Self-Assembly (TASA)-Ansatzes, bei dem die Gesamtzeit des Prozesses auf weniger als 5 min (rTASA) reduziert wurde – Abb. 1. Anstatt einzelne Partikel einzufangen, was in einem relativ niedrigen Signal-Rausch-Verhältnis resultiert, fangen wir die Partikel in dicht gepackten Anordnungen ein. Dicht gepackte Partikel ergeben starke plasmonische Resonanzen, die eine Anpassung der optischen Reaktion sowohl auf der Nano- als auch auf der Makroskala ermöglichen.
Bei beiden Methoden werden topographisch strukturierte PDMS-Formen mit nanoskaligen Löchern verwendet, um die Verteilung monodisperser Nanopartikel zu strukturierten Cluster-Arrays zu lenken. Während die CAPA Methode höchste Präzision bei der Partikelpositionierung gewährleistet, was zu einer vollständig kontrollierten Anpassung der optischen Eigenschaften führt (vergleiche auch hier), bringt die rTASA Geschwindigkeit und Benutzerfreundlichkeit und eliminiert Schritte, die eine präzise Meniskuskontrolle erfordern .

Figure 1 Rapid Template assisted particle assembly (rTASA)

 

Zur Demonstration wurde eine Mischung aus konzentrierten Ag-Nanopartikeln (5 mg/ml, 50 nm Durchmesser), auf einem zweidimensionalen quadratischen Gitter aus PDMS abgeschieden. Schließlich wurden die optischen Transmissionsdaten der kolloidalen Musterung von CAPA und rTASA im VIS-NIR-Spektralbereich untersucht. Je nach Array-Pitch-Abstand und Anzahl der Partikel pro Falle beträgt der durchschnittliche Transmissionsabfall zwischen 20 – 80 %, was die Detektion mit einfachsten spektroskopischen Lösungen ermöglicht.

 

Nachweis von Nanopartikeln mit bildgebenden Verfahren

Fig. 1 Identifikation einzelner Partikel.

Fig.2 Sind die Partikel erst einmal identifiziert, dann kann der Algorithmus ihrer Bewegung folgen.

CCM ELECTRONIC ENGINEERING entwickelt eine Methode zur Unterscheidung von Nanopartikeln mit bildgebenden Verfahren und Erkennung mittels Algorithmen. Grundlage bilden Aufnahmen von Teilchen mit Dunkelfeldmikroskopie. Ziel ist es, die Geschwindigkeit der Teilchen zu erfassen und ihre Größe nach dem Brownschen Bewegungsmodell zu bestimmen. Ricky Jacobsen beschreibt uns das Vorgehen.
Partikel werden vorgefiltert und beispielsweise über einem Mikrofluidik-Chip zu einem Mikroskop geleitet, das Dunkelfeldaufnahmen macht. Die Bilder zeigen deutlich Partikel, die Größe lässt sich jedoch nicht direkt bestimmen.
Bei CCM entwickelt Ricky Jacobsen einen Algorithmus, um die Bewegung einzelner Teilchen zu verfolgen. Im ersten Schritt wird der Hintergrund elektronisch gefiltert, um einzelnen Partikeln folgen zu können. Im zweiten Schritt werden die Partikel 'identifiziert' und der Algorithmus folgt den Partikeln unter Berücksichtigung der Nähe und Ähnlichkeit zwischen Teilchen in zwei Bildern (Abb. 1 und Abb. 2).
Diese Partikelverfolgung ist besonders anspruchsvoll, da die Teilchen sehr ähnlich sind und eine Mustererkennung nicht funktioniert. Ricky Jacobsen muss geeignete Parameter für die Auswahl der richtigen Partikel ermitteln. Sobald das Tracking einen Treffer hat, kann der Algorithmus die Partikelgeschwindigkeit bestimmen. Dies geschieht mit Hilfe der Brownschen Bewegungstheorie und daraus kann man anschließend die Partikelgröße bestimmen.
Um die erforderliche Erkennungsgenauigkeit zu erreichen, muss der Algorithmus viele Bilder verarbeiten, wodurch die erforderliche Menge an gespeicherten und verarbeiteten Daten erhöht wird.