Visual navigation for Acrob or SBOT robot with Android with camera ( Marek Kádek, Jana Sucháneková)

From RoboWiki
Revision as of 15:55, 12 June 2013 by Robot (talk | contribs) (Úvod)
Jump to: navigation, search

Úvod

Cieľom projektu Editing Visual navigation for Acrob with Android with camera bolo vytvoriť robota, reagujúceho na vizuálne podnety v labyrinte pomocou snímania okolia kamerou mobilu s operačným systémom Android. Robot má byť spojený s telefónom pomocou protokolu bluetooth.

Výzor robota:

Rob.jpg

Postup riešenia

V prvej etape tvorby projektu bolo základom zložiť robota.

Ukážka obvodu:

Obvod.jpg


V druhej etape sme vytvorili bluetooth spojenie medzi robotom a mobilným telefónom, pomocou knižnice Amarino - Android meets Andruino. Z rôznych zdrojov a diskusií na internete sme sa dozvedeli, že vytvorenie spojenia z android bluetooth na bluetooth modul robota je mnohokrát problémové a chyby sú ťažko odhaliteľné. Veľa rád práve smerovalo na použitie knižnice Amarino na riešenie tohoto problému.

Postup tvorby spojenia:

  1. Android zariadenie spárujeme s bluetooth modulom.
  2. Na android zariadenie nainštalujeme Amarino.
  3. Vytvoríme projekt v eclipse a do build path pridáme knižnicu.
  4. Vytvoríme a nacvičíme neurónovú sieť

Komunikácia

Ukážka nadviazania spojenia pomocou knižnice:

   private static final String DEVICE_ADDRESS =  "00:06:66:03:73:7B";
   private ArduinoReceiver arduinoReceiver = new ArduinoReceiver();
   
   @Override
   protected void onStart() {
       super.onStart();
       registerReceiver(arduinoReceiver, new IntentFilter(AmarinoIntent.ACTION_RECEIVED));
       Amarino.connect(this, DEVICE_ADDRESS);
   }
   @Override
   protected void onStop() {
       super.onStop();
       Amarino.disconnect(this, DEVICE_ADDRESS);
       unregisterReceiver(arduinoReceiver);
   }
   public class ArduinoReceiver extends BroadcastReceiver {
       @Override
       public void onReceive(Context context, Intent intent) {
       String data = null;
       final String address = intent.getStringExtra(AmarinoIntent.EXTRA_DEVICE_ADDRESS);
       final int dataType = intent.getIntExtra(AmarinoIntent.EXTRA_DATA_TYPE, -1);
       if (dataType == AmarinoIntent.STRING_EXTRA) {
           data = intent.getStringExtra(AmarinoIntent.EXTRA_DATA);			
           if (data != null){
               try {
                   // tu mozeme spracovat data, ktore robot posle na mobil
               } 
               catch (Exception e) { 
           }
       }
    }
  }

Na odosielanie dát smerom na Arduino využívame funkciu

   Amarino.sendDataToArduino(context, address, flag, data)

v našom prípade

   Amarino.sendDataToArduino(MainActivity.this, DEVICE_ADDRESS, 'd', 5);

Na strane arduina potom pripravíme funkciu nasledovne: 1. includujeme hlavičku - #include <MeetAndroid.h> 2. v setupe nabindujeme 'd' na funkciu zatoč

   MeetAndroid meetAndroid;
   void setup()  
   {
       ...
       meetAndroid.registerFunction(zatoc, 'd');
       ...
   }

3. pripravíme si funkciu zatoc

   void zatoc(byte flag, byte numOfValues)
   {
       ...
       // kod na zatocenie
       ...
   }

4. do loopu pridáme kód na príjmanie a spracovanie správ

   void loop()  
   {
       ...
       meetAndroid.receive(); 
       ...
   }


Čítanie dát z kamery

Kód číta dáta z kamery, ktoré sú v YUV formáte, a využíva triedu YuvImage implementovanú v Androide na kompresiu do JPEG formátu. Následne ho preškáluje na požadovanú veľkosť (napr. 20x20) a uloží. Tieto dáta sú nasledne čítané a je na ne púštaná detekcia neurónovou sieťou.

   ... (rôzne inicializácie) ...
   int dataBufferSize=(int)(previewSize.height*previewSize.width*
   (ImageFormat.getBitsPerPixel(mCamera.getParameters().getPreviewFormat())/8.0));
   mCamera.addCallbackBuffer(new byte[dataBufferSize]);
   mCamera.addCallbackBuffer(new byte[dataBufferSize]);
   mCamera.addCallbackBuffer(new byte[dataBufferSize]);
   final Rect rect = new Rect(0, 0, previewSize.width, previewSize.height);
   mCamera.setPreviewCallbackWithBuffer(new Camera.PreviewCallback() {
   private long timestamp=0;
   private FileOutputStream out;
   private Bitmap bmp;
   final String seeFile = MainActivity.this.getCurrentSeeFile();
   public synchronized void onPreviewFrame(byte[] data, Camera camera) {
       synchronized (MainActivity.this) {
           try {
               try {
               YuvImage image = new YuvImage(data, parameters.getPreviewFormat(), previewSize.width, previewSize.height, null);
               OutputStream outStream = null;
               try {
                   outStream = new FileOutputStream( seeFile );
                   image.compressToJpeg(rect, 100, outStream);
                   outStream.flush();
                   outStream.close();
                   bmp = BitmapFactory.decodeFile( seeFile );
                   bmp = Bitmap.createScaledBitmap(bmp, SCALE_WIDTH, SCALE_HEIGHT, false);
                   out = new FileOutputStream( seeFile );
                   bmp.compress(Bitmap.CompressFormat.PNG, 100, out);
                   out.flush();
                   out.close();
                   } 
                   catch (FileNotFoundException e) 
                   {
                   e.printStackTrace();
                   }
                   catch (IOException e) 
                   {
                   e.printStackTrace();
                   }
    	    } catch (Exception e1) {
             e1.printStackTrace();
           }           
              camera.addCallbackBuffer(data);
          } catch (Exception e) {
              return;
           }
       return;
       }
   }
   });  
   try {
   mCamera.startPreview();
   } catch (Throwable e) {
   mCamera.release();
   mCamera = null;
   return;
   }

Kameru je potrebné na konci uzavrieť, na to slúži metóda:

   private void stopVideo() {
   if(null==mCamera)
       return;
       try {
           mCamera.stopPreview();
           mCamera.setPreviewDisplay(null);
           mCamera.setPreviewCallbackWithBuffer(null);
           mCamera.release();
       } catch (IOException e) {
           e.printStackTrace();
           return;
       }
       mCamera = null;
   }

Neurónová sieť

Na tvorbu neurónovej siete sme použili knižnicu Neuroph. Tam sme natrénovali, aby rozoznávala požadované tvary. Stretli sme sa s nasledovnými problémami:

  1. Najnovšie Neuroph štúdio beží pod Java 1.7, a využíva novšie funkcie knižnice. Po natrénovaní sme sa snažili načítať natrénovanú sieť na Androide, avšak neúspešne.
  2. Staršia verzia Neuroph štúdia má problém s ukladaním siete. Tento problém sme dlho hľadali a zistili sme, že sa jedná o bug aplikácie, ukladanie funguje iba veľmi zriedka (spočiatku uloží nenatrénovanú sieť, no natrénovanú neukladá).
  3. Sieť sa v androide musí načítať vo zvláštnom vlákne, aby sme mohli využiť väčšiu stack size:
   ...
   new Thread(null, loadDataRunnable, "dataLoader", 65536).start();
   ...
   private Runnable loadDataRunnable = new Runnable() {
       public void run() {
           nnet = NeuralNetwork.load(  getResources().openRawResource(NETWORK_ID)  );
           imageRecognition = (ImageRecognitionPlugin) nnet.getPlugin(ImageRecognitionPlugin.class);	
           Log.i(TAG, "Neural network loaded");
           detectionScheduler.schedule(detectionTask, 0, DETECT_IMAGE_PERIOD);
        }
   };

Príklad tvarov:

Crc.jpg

Sqr.jpg


Ukážka projektu

Robot sa v bludisku pohybuje smerom dopredu, keď nevidí žiaden zo znakov, ktoré pomocou neurónovej siete rozpoznáva. V prípade, že zbadá pomocou kamery mobilného telefónu, pripevneného na ňom znak modrý štvorec, robot sa začne točiť doľava. V prípade, že rozpozná v bludisku červený kruh, otáča sa doprava.



Zdroje

  1. Amarino toolkit
  2. Neuroph
  3. Motorika robota