Jump to content

MatLab


bearha
 Κοινοποίηση

Recommended Posts

kalimera paidia yparxei kaneis pou na kserei matlab kai 8a mporouse na me boithisei se mia ergasia pou exo gia th sxolh mou.den eimai ka8olou kalos se programmatismo ktl.:confused:

eyxaristo poli.

Link to comment
Share on other sites

  • 2 weeks later...

Η εργασια ειναι η παρακατω.Συγνωμη που δεν απαντησα νωριτερα αλλα ειχα προβλημα με το internet.

Σας δίνονται 48 εικόνες προσώπων διάστασης 66x59 οι οποίες αντιπροσωπεύουν 4

διαφορετικές εκφράσεις (χαμόγελο-smile, ουδέτερο-normal, έκπληξη-surprise, νύστα-sleepy)

Διαιρούμε τις εικόνες σε δύο σύνολα

(α) Σύνολο εκπαίδευσης 24 εικόνες (6x4) (training set)

(β) Σύνολο ελέγχου 24 εικόνες (6x4) (test set)

Κατασκευάστε ένα νευρωνικό δίκτυο Back propagation το οποίο θα μπoρεί να ταξινομεί τις

εκφράσεις. Το νευρωνικό θα δέχεται ως είσοδο τις grayscale εικόνες (επομένως απαιτούνται 66x59

είσοδοι) και θα δίνει στην έξοδο τη σωστή έκφραση (απαιτούνται 4 έξοδοι). Ξεκινήστε από αριθμό

νευρώνων στο κρυμμένο (hidden) επίπεδο ίσο με 10 και αυξάνετε σταδιακά μέχρι να επιτύχετε ορθή

ταξινόμηση του συνόλου εκπαίδευσης.

Δοκιμάστε για εκπαίδευση τους διάφορους αλγορίθμους που προσφέρει η Matlab (παραλλαγές του

back propagation) και σχολιάστε την απόδοση τους. Υπολογίστε το ποσοστό επιτυχημένης

ταξινόμησης στο test set για τις διάφορες εκφράσεις. Ποιες εκφράσεις είναι δυσκολότερο να

ταξινομηθούν;

Δίνονται:

(α) Το σύνολο εκπαίδευσης (Αρχείο TrainSet.mat που περιέχει τους πίνακες TrainSet -ο

οποίος αποτελείται από 24 στήλες και 66x59 γραμμές- και TargetSet01 με τις επιθυμητές

εξόδους)

(β) Το σύνολο ελέγχου (Αρχείο TestSet το οποίο περιέχει τους πίνακες TestSet -οποίος

αποτελείται από 24 στήλες και 66x59 γραμμές- και TargetSet02 με τις αντίστοιχες επιθυμητές

εξόδους) (γ) Οι εικόνες σε pgm format (κατάλογος images με υποκαταλόγους happy,

surprised, κ.λ.π.) (δ) το πρόγραμμα ReadImage το οποίο διαβάζει μια εικόνα σε pgm format

και τη προβάλλει.

Ζητούνται: (α) Σχολιασμός των διαφόρων παραλλαγών των αλγορίθμων εκπαίδευσης (ποιος είναι

αποτελεσματικότερος, πλεονεκτήματα και μειονεκτήματα) (β) Η μορφή του τελικού νευρωνικού

δικτύου (αριθμός κόμβων στο κρυμμένο επίπεδο και τα βάρη του)

Υπόδειξη: Επειδή οι έξοδοι του νευρωνικού δικτύου λαμβάνουν τιμή 0 ή 1 χρησιμοποιήστε

συνάρτηση μεταφοράς για τους νευρώνες εξόδου τη logsig.

Back propagation Training Functions

• TRAINGD standard Gradient descent back propagation.

• TRAINGDA Gradient descent with adaptive learning rate back propagation.

• TRAINGDM Gradient descent with momentum back propagation

• TRAINGDX is a network training function that updates weight and bias values according to

gradient descent momentum and an adaptive learning rate.

• TRAINLM is a network training function that updates weight and bias values according to

Levenberg-Marquardt optimization.

• TRAINRP is a network training function that updates weight and bias values according to the

resilient back propagation algorithm.

• TRAINBFG is a network training function that updates weight and bias values according to

the BFGS quasi-Newton method.

• TRAINCGB Conjugate gradient back propagation with Powell-Beale restarts

Layers Learning Functions

• LEARNGD calculates the weight change dW for a given neuron from the neuron's input P and

error E, and the weight (or bias) learning rate LR, according to the gradient descent (gW is the

gradient value): dw = lr*gW

• LEARNGDM calculates the weight change dW for a given neuron from the neuron's input P

and error E, the weight (or bias) learning rate LR, and momentum constant MC, according to

gradient descent with momentum:

dW = mc*dWprev + (1-mc)*lr*gW

The previous weight change dWprev is stored and read from the learning state LS.

Network Performance Functions

• MSEREG measures network performance as the weight sum of two factors: the mean squared

error and the mean squared weights and biases.

• MSE measures the network's performance according to the mean of squared errors.

• MAE measures the network's performance according to mean absolute error

Link to comment
Share on other sites

Τι λες τώρα :o

Sorry, αλλά προσωπικά δεν έχω ιδέα από νευρωνικά (μακριά από μας :p)...

Link to comment
Share on other sites

Kάτι ξέρω από νευρωνικά αλλά νυστάζω τώρα!:p

Αυριο θα κοιτάξω μήπως μπορέσω να βοηθήσω, ψιλογνωστά μου φαίνονται πάντως.

 

Οι περισσότερες εντολές που αναφέρεις δεν χρειάζονται.

Link to comment
Share on other sites

  • 5 months later...
Παιδια για να μην ανοιγω αλλο θεμα. εστω οτι εχω καποιες τιμες. αυτες τις τιμες θελω να τις απεικονισω σε γραφικη παραστταση. ως εδω καλα. στη συνεχεια θελω να βγαλω την ιδανικη καμπυλη. ξερετε αυτη που περναει ανεμεσα απο σημεια και θα μπορω στα σημεια που εχω να υπολογιζει το λαθος.ξερει κανεις ποια εντολη θα χρησιμοποιησω? καμια βοηθεια?
Link to comment
Share on other sites

Στο help έψαξες; Είναι αναλυτικότατο
Link to comment
Share on other sites

Στο help έψαξες; Είναι αναλυτικότατο

βρηκα το curve fitting μεσω polyfit. αλλα δεν μου αρεσει κατι. εγω εχω στον αξονα χ 8 σημεια (0, 0.001,0.002,0.005,0.01,0.02,0.05,0.1) και τις αντιστοιχες τιμες ψ. Ωστοσο οι δυο πρωτες τιμες συμπιπτουν διοτι ο αξονας χ χωριζεται σε 10 μερη απο 0 μεχρι 0.1. επομενως η τιμη στο 0.001 ειναι πολυ κοντα στ 0. πως μπορω να το αλλαξω αυτο.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Επισκέπτης
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Κοινοποίηση

×
×
  • Create New...