DEPS consists of two independent algorithms: Differential Evolution and Particle Swarm Optimization. Both are especially suited for numerical problems, such as nonlinear optimization, and are complementary to each other in that they even out each other’s shortcomings.
Indstilling
|
Beskrivelse
|
Forekomst af agentskift
|
Angiver sandsynligheden for, at et individ vælger strategien Differentiel evolution.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
DE: Omskiftningssandsynlighed
|
Definerer sandsynligheden for, at individet blever kombineret med det globalt bedste punkt. Hvis der ikke bruges omskiftning, indsamles punktet fra individets egen hukommelse.
|
DE: Skaleringsfaktor
|
Under omskiftningen bestemmer skaleringsfaktoren bevægelsens "hastighed".
|
Læringscykler
|
Definerer antallet af gentagelser, algoritmen bør tage. I hver gentagelse gætter alle individer på den bedste løsning og deler deres viden.
|
PS: Kognitiv konstant
|
Fastlægger vigtigheden af egen hukommelse (i særdeleshed det indtil videre nåede bedste punkt).
|
PS: Indsnævrings-koefficient
|
Definerer den hastighed, som partiklerne/individerne nærmer sig hinanden med.
|
PS: Mutationssandsynlighed
|
Definerer sandsynligheden for, at i stedet for at flytte en komponent i partiklen mod det bedste punkt, vælger det tilfældigt en ny værdi inden for denne variabels gyldige område.
|
PS: Social konstant
|
Fastlægger vigtigheden af det globale bedste punkt blandt alle partikler/individer.
|
Vis forbedret problemløser-status
|
Hvis aktiveret vises under løsningsprocessen en supplerende dialog, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den aktuelle bedst kendte løsning såvel som muligheden af at stoppe eller genstarte løsningen.
|
Sværmens størrelse
|
Definerer det antal individer, der deltager i læringsporcessen. Hver individ finder sine egne løsninger og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis dette antal individuelt fundne løsninger er inden for et snævert område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som “lignende”.
|
Brug ACR-sammenligner
|
Hvis deaktiveret (standard) bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af begrænsninger og kun hvis disse ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres succes med viden om bibliotekernes kendte værste løsninger (i forhold til deres overtrædelser af begrænsningerne).
|
Brug Tilfældigt startpunkt
|
Hvis aktiveret fyldes biblioteket simpelthen op med tilfældigt valgte punkter.
Hvis deaktiveret, indsættes de aktuelt tilstedeværende værdier (som givet af brugeren) i biblioteket som referencepunkt.
|
Gætning af Variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for Variabelgrænser
|
Under gætning af variabelgrænser angiver denne tærskel, hvordan startværdierne ombyttes for at bygge grænserne. Se et eksempel på, hvordan disse værdier beregnes, i manualen i wiki-en.
|
Social Cognitiv Optimering tager hensyn til menneskelig adfærd under læring og deling af information. Hvert individ har adgang til et fælles bibliotek med viden, der deles blandt alle individer.
Indstilling
|
Beskrivelse
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Læringcykler
|
Definerer det antal gentagelser, algoritmen bør tage. I løbet af hver gentagelse foretager alle individer et gæt på den bedste løsning og deler deres viden.
|
Vis forbedret problemløser-status
|
Hvis aktiveret vises under løsningsprocessen en supplerende dialog, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den aktuelle bedst kendte løsning såvel som muligheden af at stoppe eller genstarte løsningen.
|
Bibliotekets størrelse
|
Definerer den mængde information, der skal gemmes i det fælles bibliotek. Hvert individ oplagrer viden der og søger information.
|
Sværmens størrelse
|
Definerer det antal individer, der deltager i læringsporcessen. Hver individ finder sine egne løsninger og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis dette antal individuelt fundne løsninger er inden for et snævert område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som “lignende”.
|
Brug ACR-sammenligner
|
Hvis deaktiveret (standard) bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af begrænsninger og kun hvis disse ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres succes med viden om bibliotekernes kendte værste løsninger (i forhold til deres overtrædelser af begrænsningerne).
|
Gætning af Variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for Variabelgrænser
|
Under gætning af variabelgrænser angiver denne tærskel, hvordan startværdierne ombyttes for at bygge grænserne. Se et eksempel på, hvordan disse værdier beregnes, i manualen i wiki-en.
|
Indstilling
|
Beskrivelse
|
Antag, at variabler er heltal
|
Marker for at tvinge variabler til udelukkende at være heltal.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Epsilon-niveau
|
Epsilon-niveau. Gyldige værdier ligger i området 0 (meget tæt) til 3 (meget løst). Epsilon er tolerencen for afrunding af værdier til nul.
|
Begræns dybden i forgrening-og-begrænsning
|
Angiver den maksimale dybde i forgrening-og-begrænsning. En positiv værdi betyder, at dybden er absolut. En negativ værdi betyder en relativ begrænsning af dybden i forgrening-og-begrænsning.
|
Problemløserens tidsgrænse
|
Sætter den maksimale tid, algoritmen kan tilnærme sig en løsning.
|
Indstilling
|
Beskrivelse
|
Antag, at variabler er heltal
|
Marker for at tvinge variabler til udelukkende at være heltal.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Problemløserens tidsgrænse
|
Sætter den maksimale tid, algoritmen kan tilnærme sig en løsning.
|
Sværm-algoritme
|
Sæt sværm-algoritmen. 0 for differentiel evolution og 1 for partikel-sværm optimering. Standard er 0.
|