嵌套 openmdao "assemblies" /drivers - 从 0.13 类比开始工作,这是否可以在 1.X 中实现?



我使用NREL的DAKOTA_driver openmdao插件对模型进行并行蒙特卡罗采样。在0。X,我能够嵌套程序集,允许外部优化驱动程序指导DAKOTA_driver采样评估。我是否可以在外部优化器中嵌套此设置?我希望外部优化器的工作流调用DAKOTA_driver"程序集",然后调用get_dakota_output组件。

import pandas as pd
import subprocess
from subprocess import call
import os
import numpy as np
from dakota_driver.driver import pydakdriver
from openmdao.api import IndepVarComp, Component, Problem, Group
from mpi4py import MPI
import sys
from itertools import takewhile
sigm = .005
n_samps = 20
X_bar=[0.065 , sigm] #2.505463e+03*.05]  
dacout = 'dak.sout'

class get_dak_output(Component):
    mean_coe = 0
    def execute(self):
       comm = MPI.COMM_WORLD
       rank = comm.Get_rank()
       nam ='ape.net_aep'
       csize = 10000
       with open(dacout) as f:
           for i,l in enumerate(f):
               pass
       numlines = i
       dakchunks = pd.read_csv(dacout,  skiprows=0, chunksize = csize, sep='there_are_no_seperators')
       linespassed = 0
       vals = []
       for dchunk in dakchunks:
           for line in dchunk.values:
               linespassed += 1
               if linespassed < 49 or linespassed > numlines - 50: continue
               else:
                   split_line = ''.join(str(s) for s in line).split()
               if len(split_line)==2:
                     if (len(split_line) != 2 or
                        split_line[0] in ('nan', '-nan') or
                        split_line[1] != nam):
                            continue
                     else:vals.append(float(split_line[0]))
       self.coe_vals = sorted(vals)
       self.mean_coe = np.mean(self.coe_vals)

class ape(Component):
    def __init__(self):
       super(ape, self).__init__()
       self.add_param('x', val=0.0)
       self.add_output('net_aep', val=0.0)
    def solve_nonlinear(self, params, unknowns, resids):
       print 'hello'
       x = params['x']
       comm = MPI.COMM_WORLD
       rank = comm.Get_rank()
       outp = subprocess.check_output("python test/exampleCall.py %f"%(float(x)),
       shell=True)
       unknowns['net_aep'] = float(outp.split()[-1])

top = Problem()
root = top.root = Group()
root.add('ape', ape())
root.add('p1', IndepVarComp('x', 13.0))
root.connect('p1.x', 'ape.x')
drives = pydakdriver(name = 'top.driver')
drives.UQ('sampling', use_seed=False)
#drives.UQ()
top.driver = drives
#top.driver = ScipyOptimizer()
#top.driver.options['optimizer'] = 'SLSQP'
top.driver.add_special_distribution('p1.x','normal', mean=0.065, std_dev=0.01, lower_bounds=-50, upper_bounds=50)
top.driver.samples = n_samps
top.driver.stdout = dacout
#top.driver.add_desvar('p2.y', lower=-50, upper=50)
#top.driver.add_objective('ape.f_xy')
top.driver.add_objective('ape.net_aep')
top.setup()

top.run()
bak = get_dak_output()
bak.execute()
print('n')
print('E(aep) is %f'%bak.mean_coe)

对于这种情况有两种不同的选择。两者都将并行工作,并且目前都可以支持。但是当你想要使用解析导数时,它们中只有一个是有效的:

1)嵌套问题:您创建一个问题类,其中有一个DOE驱动程序。你把你想要运行的案例列表传递给那个驱动程序,它并行地运行它们。然后将该问题作为组件放入父问题中。

父问题不知道它有子问题。它只是认为它有一个使用多个处理器的单一组件。

这与你在0.x中所做的最相似。但是我不建议你走这条路因为如果你想用任何时候都想用解析导数的话,这是行不通的。

如果你用这种方式,达科他司机可以保持原样。但你必须使用一个特殊的子问题类。这不是一个官方支持的功能,但它是非常可行的。

2)使用多点方法,您将创建一个表示您的模型的Group类。然后,您将为想要执行的每次蒙特卡罗运行创建该组的一个实例。在整个问题中,将所有这些实例放入并行组中。

这种方法避免了子问题的混乱。它在实际执行中也更有效率。与第一种方法相比,它的安装成本要高一些。但在我看来,为了得到解析导数的优势,这是值得的。唯一的问题是,它可能需要对dakota_driver的工作方式进行一些更改。您可能希望从驱动程序获得评估列表,然后将它们分发给各个儿童组。

最新更新