Development of an arm system for a gesturing system for the social robot Probo

Steven Depue
Persbericht

Development of an arm system for a gesturing system for the social robot Probo

Emoties omarmen

Ledematen van robots als communicatiemiddel

Robots zullen meer en meer in ons dagelijks leven verschijnen, in tal van toepassingen. Er is dus een sociaal aspect in de ontwikkeling nodig om intuïtief met hen te kunnen communiceren. Sociale robots worden dan ook uitgerust met typisch menselijke communicatiesystemen zoals spraak en het tonen van emoties. De robot Probo van de Vrije Universiteit Brussel kan al heel wat gelaatsuitdrukkingen nabootsen, maar zal nu ook een paar werkende armen krijgen.

De robot Probo wordt momenteel ontwikkeld aan de Vrije Universiteit Brussel. De groene knuffelrobot wordt getest met autistische kinderen om hen sociale vaardigheden aan te leren door spelletjes te spelen en te reageren op wat ze zeggen en doen. Met behulp van een 20-tal motoren in het hoofd, kan Probo allerlei gelaatsuitdrukkingen zoals blij, boos of droevig uitbeelden. Deze gelaatsuitdrukkingen werden vervolgens gebruikt in studies waarin kinderen moesten aangeven of ze herkenden welke emoties Probo nabootste. Een vergelijkbare werkwijze zal gebruikt worden bij de ontwikkeling van een prototype voor de armen. Hierbij is het doel om na te gaan of Probo’s robotische ledematen op dezelfde manieren moeten kunnen bewegen als onze menselijke armen.

Er is in de roboticawereld nog geen duidelijke consensus over hoe men best een menselijke arm nabouwt. De reden hiervoor is dat het perfect nabootsen van de complexiteit van spierweefsel en ligamenten nog niet voor vandaag is. Dit is tot voor kort nooit echt een probleem geweest, aangezien robots enkel voor industriële taken (zoals lassen of lasten hijsen in een fabriek) werden gebruikt. Van sociale robots zoals Probo wordt daarentegen wel verwacht dat ze op een menselijke manier bewegen. Dit is de reden waarom het onderzoek begint met een menselijke arm en de bewegingen later worden aangepast zodat ze door een robotische arm met een klein aantal motoren kunnen worden uitgebeeld.

Deze bewegingen werden vastgelegd aan de hand van een techniek die door de opkomst van goedkope 3D camera’s (zoals de Microsoft Kinect) bij onderzoekers erg populair is geworden: motion capturing. Een persoon beeldt de emoties zoals blijheid of afkeer uit voor de camera, waarna deze in een programma kunnen aangepast worden. Vervolgens wordt een visuele voorstelling van Probo gemaakt en hierin de bewegingen geschaald naar Probo’s skelet, dat door zijn grote hoofd en korte beentjes andere proporties heeft dan een menselijk skelet. Deze virtuele voorstelling bestaat enkel uit de huid van Probo en wordt gebruikt om met het oog de bewegingen te beoordelen. Hieruit werd beslist om het eerste prototype van de armen met maar twee bewegende gewrichten te bouwen: de schouders en de ellebogen. Het doel is om dit prototype te gebruiken in een studie waarin deelnemers aangeven of ze de bewegingen herkennen en te kunnen oordelen of Probo ook bewegende polsen en handen nodig heeft.

In de volgende stap wordt een virtueel model getekend in de computer. Dit wordt gebruikt om een ruwe schatting te maken van het nodige vermogen, de afmetingen en de gewichten van de motoren. Deze motoren moeten klein genoeg zijn om in de armen te passen, maar toch sterk genoeg zijn om de bewegingen te kunnen uitvoeren. Hiervoor worden een aantal simulaties met het virtueel model gedaan. Met de keuze van de motoren vastgelegd, worden er technische 3D-tekeningen gemaakt om de armen voor het eerst in het echt te bouwen. Met behulp van een lasersnijder worden de vormen uit pershout gesneden en gelijmd, om tot een lichte maar tegelijk stevige constructie te komen.

Indien de kans bestaat dat een robot tijdens het bewegen in aanraking komt met een mens (in dit geval de kinderen waarmee Probo moet kunnen omgaan), moeten er ook veiligheidssystemen worden ingebouwd. Deze systemen kunnen preventief werken (bijvoorbeeld met sensoren detecteren of de armen iemand kunnen raken tijdens het bewegen) of ingrijpen terwijl het contact plaatsvindt. In het eerste prototype van de armen werden geen preventieve systemen ingebouwd, maar wel een botsingsdetectie (waarnemen of er een botsing is geweest en hierop reageren) en mechanismes om de impact van de klap te verminderen, zodat een botsing nooit pijnlijk is. De botsingsdetectie wordt gerealiseerd door na te gaan of de arm afwijkt van het geplande traject tijdens het bewegen en zo nodig de motoren te stoppen. Deze controle gebeurt elke honderdste van een seconde. De impact wordt verminderd door veren tussen de motoren te plaatsen. Zo worden tijdens het contact de veren uitgerekt om de schok op te vangen en de energie wordt hierin geabsorbeerd, terwijl het computerprogramma voor de botsingsdetectie in werking treedt.  

Met dit prototype van de armen werd een volledig robotisch bovenlichaam (zonder Probo’s echte hoofd maar met een knuffelversie in de plaats) gebouwd dat ook naar voor en achteren kan leunen, om de menselijke bewegingen nog beter te benaderen. Tijdens de studie probeerden 77 anonieme deelnemers aan de hand van videofragmenten zes uitgebeelde emoties te herkennen. Gemiddeld werd in 56% van de testen de beweging correct herkend en voor alle emoties was de herkenningsgraad hoger dan de willekeurige kans van 1 op 6. Deze resultaten werden vergeleken met die van een studie met de sociale robot Nao, die niet alleen werkende schouders en ellebogen heeft, maar ook polsen en handen. De vergelijking van de studies wees uit dat de toevoeging van bewegende polsen en handen op zich nauwelijks bijdraagt tot de herkenning van de emoties. Er zijn wel nog duidelijke verbeteringen voor Probo’s armen mogelijk, zoals het verfijnen van de houdingen en de snelheid van de bewegingen. Sommige van de emoties zijn ook gewoon te moeilijk om enkel met armen uit te beelden. Hierbij spelen de gelaatsuitdrukkingen een grotere rol. 

Het eerste prototype van de armen voor Probo slaagt erin om met zo weinig mogelijk motoren emoties zoals blijheid en boosheid uit te beelden. In een volgende fase moeten de ledematen samenwerken met het robotische hoofd van Probo om een goede herkenning van de uitgebeelde emotie te garanderen. Wanneer de veiligheidssystemen op punt staan en een behouden interactie verzekerd is, zal Probo eindelijk een nieuwe thuis krijgen tussen zijn nieuwe jonge speelkameraden.

Bibliografie

[1]

Kristof Goris, "The Development of the Huggable Social Robot Probo: On the Hardware Design and Construction," Vrije Universiteit Brussel, Ph.D. dissertation 2009.

[2]

C.L. Breazeal, Designing Sociable Robots.: MIT Press, 2004.

[3]

MIT Media Lab. (2012) Personal robots group. [Online]. http://robotic.media.mit.edu

[4]

Hasbro Inc. (2013) Furby, A Mind Of Its Own. [Online]. www.furby.com

[5]

K. Goris, J. Saldien, I. Vanderniepen, and D. Lefeber, "The Huggable Robot Probo, a Multi-Disciplinary Research Platform," Research and Education in Robotics, vol. 33, pp. 29-41, 2009.

[6]

B. Vanderborght, R. Simut, J. Saldien, C. Pop, A. S. Rusu, S. Pintea, D. Lefeber, and D. O. David, "Using the social robot probo as a social story telling agent for children with ASD," Interaction Studies, vol. 13, no. 3, pp. 348-372, 2012.

[7]

Greet Van de Perre, Ramona Simut, Bram Vanderborght, Jelle Saldien, and Dirk Lefeber, "About the design of the social robot Probo, facilitator for ASD therapies," in 9th National Congress on Theoretical and Applied Mechanics, 2012.

[8]

J. Saldien, K. Goris, B. Vanderborght, J. Vanderfaeillie, and D. Lefeber, "Expressing Emotions with the Social Robot Probo," International Journal of Social Robotics, vol. 2, no. 4, pp. 377-389, 2010.

[9]

J. Cassell, T. Bickmore, M. Billinghurst, L. Campbell, K. Chang, H. Vilhjálmsson, and H. Yan, "Embodiment in Conversational Interfaces: Rea," in Proceedings of the SIGCHI conference on Human factors in computing systems: The CHI is the limit, 1999, pp. 520-527.

[10]

E.T. Hall, The Dance of Life: The Other Dimension of Time.: Anchor, 1984.

[11]

Albert Mehrabian, Silent Messages.: Wadsworth Publishing Company, 1971.

[12]

M. Zecca, Y. Mizoguchi, K. Endo, F. Iida, Y. Kawabata, N. Endo, K. Itoh, and A. Takanishi, "Whole Body Emotion Expressions for KOBIAN Humanoid Robot -Preliminary Experiments with Different Emotional Patterns-," in Robot and Human Interactive Communication, 2009. RO-MAN 2009. The 18th IEEE International Symposium on, 2009, pp. 381-386.

[13]

Steven Depue, "Kinematics and Dynamics of the arm system of the social robot Probo," MA1 project dissertation, unpublished 2012.

[14]

I.A. Kapandji, Bewegingsleer.: Bohn Stafleu van Loghum, 2009.

[15]

N. Klopčar, M. Tomšič, and J. Lenarčič, "A Kinematic Model of the Shoulder Complex to Evaluate the Arm-reachable Workspace," Journal of Biomechanics, vol. 40, no. 1, pp. 86-91, 2007.

[16]

C. Högfors, G. Sigholm, and P. Herberts, "Biomechanical Model of the Human Shoulder—I. Elements," Journal of biomechanics, vol. 20, no. 2, pp. 157-166, 1987.

[17]

G. Rab, K. Petuskey, and A. Bagley, "A Method for Determination of Upper Extremity Kinematics," Gait & posture, vol. 15, no. 2, pp. 113-119, 2002.

[18]

D. Matsui, T. Minato, K.F. MacDorman, and H. Ishiguro, "Generating Natural Motion in an Android by Mapping Human Motion," in Intelligent Robots and Systems, 2005.(IROS 2005). 2005 IEEE/RSJ International Conference on, 2005, pp. 3301-3308.

[19]

G. ElKoura and K. Singh, "Handrix: Animating the Human Hand," in Proceedings of the 2003 ACM SIGGRAPH/Eurographics symposium on Computer animation, 2003, pp. 110-119.

[20]

A. Albu-Schaffer, O. Eiberger, M. Grebenstein, S. Haddadin, C. Ott, T. Wimbock, S. Wolf, and G. Hirzinger, "Soft Robotics," Robotics & Automation Magazine, IEEE, vol. 15, no. 3, pp. 20-30, 2008.

[21]

Honda Worldwide. (2012) Improved Task Performing Capabilities. [Online]. http://world.honda.com/ASIMO/technology/2011/performing/index.html

[22]

B.R. Duffy, "Anthropomorphism and the Social Robot," Robotics and Autonomous Systems, vol. 42, no. 3, pp. 177-190, 2003.

[23]

C. Ott, O. Eiberger, W. Friedl, B. Bauml, U. Hillenbrand, C. Borst, A. Albu-Schaffer, B. Brunner, H. Hirschmuller, and S. Kielhofer, "A Humanoid Two-arm System for Dexterous Manipulation," in Humanoid Robots, 2006 6th IEEE-RAS International Conference on, 2006, pp. 276-283.

[24]

C. Breazeal, G. Hoffman, and A. Lockerd, "Teaching and Working with Robots as a Collaboration," in Proceedings of the Third International Joint Conference on Autonomous Agents and Multiagent Systems, vol. 3, 2004, pp. 1030-1037.

[25]

C. Breazeal, M. Siegel, M. Berlin, J. Gray, R. Grupen, P. Deegan, J. Weber, K. Narendran, and J. McBean, Mobile, dexterous, social robots for mobile manipulation and human-robot interaction.: ACM, 2008.

[26]

N. Tsagarakis, G. Metta, G. Sandini, D. Vernon, R. Beira, F. Becchi, L. Righetti, J. Santos-Victor, A. Ijspeert, and M. Carrozza, "iCub: The Design and Realization of an Open Humanoid Platform for Cognitive and Neuroscience Research," Advanced Robotics, vol. 21, no. 10, pp. 1151-1175, 2007.

[27]

H. Miwa, K. Itoh, M. Matsumoto, M. Zecca, H. Takanobu, S. Rocella, M. Carrozza, P. Dario, and A. Takanishi, "Effective Emotional Expressions with Emotion Expression Humanoid Robot WE-4RII: Integration of Humanoid Robot Hand RCH-1," in Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on, vol. 3, 2004, pp. 2203-2208.

[28]

D. Gouaillier, V. Hugel, P. Blazevic, C. Kilner, J. Monceaux, P. Lafourcade, B. Marnier, J. Serre, and B. Maisonnier, "Mechatronic design of NAO humanoid," in Robotics and Automation, 2009. ICRA'09. IEEE International Conference on, 2009, pp. 769-774.

[29]

H. Kozima, "Infanoid," Socially Intelligent Agents, vol. 3, pp. 157-164, 2002.

[30]

T. Asfour, K. Regenstein, P. Azad, J. Schroder, A. Bierbaum, N. Vahrenkamp, and R. Dillmann, "ARMAR-III: An Integrated Humanoid Platform for Sensory-Motor Control," in Humanoid Robots, 2006 6th IEEE-RAS International Conference on, 2006, pp. 169-175.

[31]

K.A. Wyrobek, E.H. Berger, H.F.M. Van der Loos, and J.K. Salisbury, "Towards a Personal Robotics Development Platform: Rationale and Design of An Intrinsically Safe Personal Robot," in Robotics and Automation, 2008. ICRA 2008. IEEE International Conference on, 2008, pp. 2165-2170.

[32]

Willow Garage. (2012) PR2 Hardware Specs. [Online]. http://www.willowgarage.com/pages/pr2/specs

[33]

E. Guizzo and E. Ackerman, "The Rise of the Robot Worker," IEEE Spectrum, vol. 49, no. 10, pp. 34-41, October 2012.

[34]

R. Hirose and T. Takenaka, "Development of the Humanoid Robot ASIMO," Honda R&D Technical Review, vol. 13, no. 1, pp. 1-6, 2001.

[35]

Honda Worldwide. (2012) ASIMO Key Specifications. [Online]. http://world.honda.com/ASIMO/technology/2011/specification/

[36]

H. G. Marques, M. Jantsch, S. Wittmeier, O. Holland, C. Alessandro, A. Diamond, M. Lungarella, and R. Knight, "Ecce1: The first of a series of anthropomimetic musculoskeletal upper torsos," in Humanoid Robots (Humanoids), 2010 10th IEEE-RAS International Conference on, 2010, pp. 391-396.

[37]

L. Geppert, "QRIO, the robot that could," IEEE Spectrum, vol. 41, no. 5, pp. 34-37, 2004.

[38]

N. Mitsunaga, T. Miyashita, H. Ishiguro, K. Kogure, and N. Hagita, "Robovie-IV: A communication robot interacting with people daily in an office," in Intelligent Robots and Systems, 2006 IEEE/RSJ International Conference on, 2006, pp. 5066-5072.

[39]

F. Guenter, L. Roos, A. Guignard, and A.G. Billard, "Design of A Biomimetic Upper Body for the Humanoid Robot Robota," in Humanoid Robots, 2005 5th IEEE-RAS International Conference on, 2005, pp. 56-61.

[40]

K. Dautenhahn, C. Nehaniv, M. Walters, B. Robins, H. Kose-Bagci, N. Mirza, and M. Blow, "KASPAR: A Minimally Expressive Humanoid Robot for Human-Robot Interaction Research," Applied Bionics and Biomechanics, vol. 6, no. 3-4, pp. 369-397, 2009.

[41]

Arjan Westerhuis, "Design and Evaluation of a 3-DOF Spherical Parallel Mechanism for Domestic Robot Arms," University of Twente, Master's thesis 2012.

[42]

H. Miwa, K. Itoh, D. Ito, H. Takanobu, and A. Takanishi, "Design and Control of 9-DOFs Emotion Expression Humanoid Arm," in Robotics and Automation, 2004. Proceedings. ICRA'04. 2004 IEEE International Conference on, vol. 1, 2004, pp. 128-133.

[43]

Aryel Beck, Lola Cañamero, and Kim A Bard, "Towards an affect space for robots to display emotional body language," in RO-MAN, 2010 IEEE, 2010, pp. 464-469.

[44]

H. Ishiguro, T. Ono, M. Imai, T. Maeda, T. Kanda, and R. Nakatsu, "Robovie: An Interactive Humanoid Robot," Industrial robot: An international journal, vol. 28, no. 6, pp. 498-504, 2001.

[45]

P. Kahn Jr, T. Kanda, H. Ishiguro, N. Freier, R. Severson, B. Gill, J. Ruckert, and S. Shen, "“Robovie, you'll have to go into the closet now”: Children's social and moral relationships with a humanoid robot.," Developmental psychology, vol. 48, no. 2, pp. 303-314, 2012.

[46]

S. Roccella, M. Carrozza, G. Cappiello, P. Dario, J. Cabibihan, M. Zecca, H. Miwa, K. Itoh, and M. Marsumoto, "Design, fabrication and preliminary results of a novel anthropomorphic hand for humanoid robotics: RCH-1," in Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on, vol. 1, 2004, pp. 266-271.

[47]

M. Zinn, O. Khatib, B. Roth, and J.K. Salisbury, "Playing It Safe [Human-Friendly Robots]," Robotics & Automation Magazine, IEEE, vol. 11, no. 2, pp. 12-21, 2004.

[48]

R. Ham, T. Sugar, B. Vanderborght, K. Hollander, and D. Lefeber, "Compliant Actuator Designs," Robotics & Automation Magazine, IEEE, vol. 16, no. 3, pp. 81-94, 2009.

[49]

R. Alexander, "Three uses for springs in legged locomotion," The International Journal of Robotics Research, vol. 9, no. 2, pp. 53-61, 1990.

[50]

A. Albu-Schaffer, C. Ott, U. Frese, and G. Hirzinger, "Cartesian impedance control of redundant robots: Recent results with the DLR-Light-Weight-Arms," in Robotics and Automation, 2003. Proceedings. ICRA'03. IEEE International Conference on, vol. 3, 2003, pp. 3704-3709.

[51]

T. Wimbock, C. Ott, and G. Hirzinger, "Impedance behaviors for two-handed manipulation: Design and experiments," in Robotics and Automation, 2007 IEEE International Conference on, 2007, pp. 4182-4189.

[52]

R. Wistort and C. Breazeal, "TOFU: A Socially Expressive Robot Character for Child Interaction," in Proceedings of the 8th International Conference on Interaction Design and Children, 2009, pp. 292-293.

[53]

S. Nishio, H. Ishiguro, and N. Hagita, "Geminoid: Teleoperated android of an existing person," Humanoid Robots: New Developments, vol. 14, pp. 343-352, 2007.

[54]

John McBean and Cynthia Breazeal, "Voice coil actuators for human-robot interaction," in Intelligent Robots and Systems, 2004.(IROS 2004). Proceedings. 2004 IEEE/RSJ International Conference on, vol. 1, 2004, pp. 852-858.

[55]

G.A. Pratt and M.M. Williamson, "Series Elastic Actuators," in Intelligent Robots and Systems 95.'Human Robot Interaction and Cooperative Robots', Proceedings. 1995 IEEE/RSJ International Conference on, vol. 1, 1995, pp. 399-406.

[56]

M. Quigley, A. Asbeck, and A. Ng, "A Low-cost Compliant 7-DOF Robotic Manipulator," in Robotics and Automation (ICRA), 2011 IEEE International Conference on, 2011, pp. 6051-6058.

[57]

ECCEROBOT (Embodied Cognition in a Compliantly Engineered Robot). (2013) Actuator Subsystem. [Online]. http://eccerobot.org/home/robot/actuatorsubsystem

[58]

B. Verrelst, R. Ham, B. Vanderborght, F. Daerden, D. Lefeber, and J. Vermeulen, "The pneumatic biped “Lucy” actuated with pleated pneumatic artificial muscles," Autonomous Robots, vol. 18, no. 2, pp. 201-213, 2005.

[59]

C. Ott, A. Albu-Schaffer, A. Kugi, S. Stamigioli, and G. Hirzinger, "A Passivity Based Cartesian Impedance Controller for Flexible Joint Robots - Part I: Torque Feedback and Gravity Compensation," in Robotics and Automation, 2004. Proceedings. ICRA'04. 2004 IEEE International Conference on, vol. 3, 2004, pp. 2659-2665.

[60]

T. Rahman, R. Ramanathan, R. Seliktar, and W. Harwin, "A Simple Technique to Passively Gravity-Balance Articulated Mechanisms," Journal of Mechanical Design, vol. 117, pp. 655-657, 1995.

[61]

Gabriëlle JM Tuijthof and Just L Herder, "Design, actuation and control of an anthropomorphic robot arm," Mechanism and machine theory, vol. 35, no. 7, pp. 945-962, 2000.

[62]

Keenan A Wyrobek, Eric Berger, and J Kenneth JR Salisburger, "Electromechanically counterbalanced humanoid robotic system," US20100243344, 2010.

[63]

A. De Luca, B. Siciliano, and L. Zollo, "PD control with on-line gravity compensation for robots with elastic joints: Theory and experiments," Automatica, vol. 41, no. 10, pp. 1809-1819, 2005.

[64]

J. B. Spicer, C. J. Richardson, M. J. Ehrlich, J. R. Bernstein, M. Fukuda, and M. Terada, "Effects of frictional loss on bicycle chain drive efficiency," Journal of Mechanical Design, vol. 123, pp. 598-605, 2001.

[65]

Irving Griffel, "Chain drive," US3495468, 1970.

[66]

Hiroyuki Takeda and Tetsuji Kotera, "Low noise chain drive," US5419743, 1995.

[67]

ServoCity. (2013) Plastic Chain. [Online]. http://www.servocity.com/html/plastic_chain.html

[68]

Savöx. (2013) Coreless Motor. [Online]. http://www.savoxtech.com.tw/

[69]

Preston Blair, Cartooning: Animation 1 with Preston Blair.: Walter Foster, 1947.

[70]

AnimationArchive (Through WebArchive). (2013) Media: Preston Blair's Animation First Edition. [Online]. http://web.archive.org/web/20060508201758/http://www.animationarchive.org/2006/05/media-preston-blairs-animation-first.html

[71]

RS Components. (2013) Electrical and Electronical Components. [Online]. http://be02.rs-online.com/web/

[72]

Pirate4x4. (2013) The largest off roading website in the world. [Online]. www.pirate4x4.com

[73]

JunFac. (2013) Online Store. [Online]. http://www.junfac.com/

[74]

Kathy L Walters and Richard D Walk, "Perception of emotion from moving body cues in photographs," Bulletin of the Psychonomic Society, vol. 26, no. 2, pp. 112-114, 1988.

[75]

Richard D Walk and Carolyn P Homan, "Emotion and dance in dynamic light displays," Bulletin of the Psychonomic Society, vol. 22, no. 5, pp. 437-440, 1984.

[76]

Frank Thomas and Ollie Johnston, The illusion of life: Disney animation.: Hyperion New York, 1995.

[77]

Limesurvey. (2013) The open source survey application. [Online]. http://www.limesurvey.org/

[78]

Andrea Kleinsmith, P Ravindra De Silva, and Nadia Bianchi-Berthouze, "Cross-cultural differences in recognizing affect from body posture," Interacting with Computers, vol. 18, no. 6, pp. 1371-1389, 2006.

[79]

M Haring, Nikolaus Bee, and Elisabeth Andre, "Creation and evaluation of emotion expression with body movement, sound and eye color for humanoid robots," in RO-MAN, 2011 IEEE, 2011, pp. 204-209.

[80]

HCM Lab. (2013) Emotion Expression with NAO (RO-MAN 2011). [Online]. http://www.youtube.com/watch?v=IXoTM9apowE

[81]

J Richard Landis and Gary G Koch, "The measurement of observer agreement for categorical data," Biometrics, vol. 33, no. 1, pp. 159-174, 1977.

[82]

SKF. (2013) Deep groove ball bearings, single row 61802. [Online]. http://www.skf.com/group/products/bearings-units-housings/ball-bearings/deep-groove-ball-bearings/single-row/index.html?prodid=1010021802

[83]

MakeItFrom.com. (2013) Compare Materials: MDF to PVDF. [Online]. http://www.makeitfrom.com/compare-materials/?A=Medium-Density-Fiberboard-MDF&B=Polyvinylidene-Fluoride-PVDF

[84]

The Engineering Toolbox. (2013) Elastic Properties and Young Modulus for some Materials. [Online]. http://www.engineeringtoolbox.com/young-modulus-d_417.html

 

Universiteit of Hogeschool
Electro-mechanical Engineering
Université Libre de Bruxelles
Publicatiejaar
2013
Kernwoorden
Share this on: