将参与者随机重新分配到组,以便最初来自同一组的参与者最终不会在同一组中



我基本上是在尝试进行这种蒙特卡洛分析,在该分析中,我将实验中的参与者随机地重新分配给了新组,然后将数据重新分析给定了随机的新组。所以这是我想要做的事情:

参与者最初分为八组,分别为四个参与者。我想随机将每个参与者重新分配给一个新小组,但是我不希望任何参与者最终与他们的原始组中的另一个参与者一起进入一个新组

这就是我对此有多远的注意:

import random
import pandas as pd
import itertools as it
data = list(it.product(range(8),range(4)))
test_df = pd.DataFrame(data=data,columns=['group','partid'])
test_df['new_group'] = None
for idx, row in test_df.iterrows():
    start_group = row['group']
    takens      = test_df.query('group == @start_group')['new_group'].values
    fulls       = test_df.groupby('new_group').count().query('partid >= 4').index.values
    possibles   = [x for x in test_df['group'].unique() if (x not in takens)
                                                      and (x not in fulls)]
    test_df.loc[idx,'new_group'] = random.choice(possibles)

这里的基本思想是,我将参与者随机重新分配给一个新小组,其约束是(a)新组没有其原始组合作伙伴之一,并且(b)新组没有已经重新分配了4个或更多的参与者。

这种方法的问题是,很多时候,当我们尝试重新分配最后一个组时,唯一剩下的组插槽位于同一组中。我也可以也可以尝试在失败之前重新旋转,直到成功为止,但这感觉很愚蠢。另外,我想进行100个随机重新分配,以便方法变得非常慢。

因此,必须有一种更聪明的方法来做到这一点。鉴于目标的感觉如何,我也觉得应该有一种更简单的方法来解决这个问题(但我意识到这可能会产生误导...)

编辑:更好的解决方案


睡觉后,我发现了一个更好的解决方案,该解决方案在~ Big O of numGroups中。

样本数据

import random
import numpy as np
import pandas as pd
import itertools as it
np.random.seed(0)
numGroups=4
numMembers=4
data = list(it.product(range(numGroups),range(numMembers)))
df = pd.DataFrame(data=data,columns=['group','partid'])

解决方案

g = np.repeat(range(numGroups),numMembers).reshape((numGroups,numMembers))
In [95]: g
Out[95]: 
array([[0, 0, 0, 0],
       [1, 1, 1, 1],
       [2, 2, 2, 2],
       [3, 3, 3, 3]])
g = np.random.permutation(g)
In [102]: g
Out[102]: 
array([[2, 2, 2, 2],
       [3, 3, 3, 3],
       [1, 1, 1, 1],
       [0, 0, 0, 0]])
g = np.tile(g,(2,1))
In [104]: g
Out[104]: 
array([[2, 2, 2, 2],
       [3, 3, 3, 3],
       [1, 1, 1, 1],
       [0, 0, 0, 0],
       [2, 2, 2, 2],
       [3, 3, 3, 3],
       [1, 1, 1, 1],
       [0, 0, 0, 0]])

注意对角线。

array([[2, -, -, -],
       [3, 3, -, -],
       [1, 1, 1, -],
       [0, 0, 0, 0],
       [-, 2, 2, 2],
       [-, -, 3, 3],
       [-, -, -, 1],
       [-, -, -, -]])

将对角线从上到下取。

newGroups = []
for i in range(numGroups):
    newGroups.append(np.diagonal(g[i:i+numMembers]))
In [106]: newGroups
Out[106]: 
[array([2, 3, 1, 0]),
 array([3, 1, 0, 2]),
 array([1, 0, 2, 3]),
 array([0, 2, 3, 1])]
newGroups = np.ravel(newGroups)
df["newGroups"] = newGroups
In [110]: df
Out[110]: 
    group  partid  newGroups
0       0       0          2
1       0       1          3
2       0       2          1
3       0       3          0
4       1       0          3
5       1       1          1
6       1       2          0
7       1       3          2
8       2       0          1
9       2       1          0
10      2       2          2
11      2       3          3
12      3       0          0
13      3       1          2
14      3       2          3
15      3       3          1

旧解决方案:蛮力法


原来比我想象的要难得多...

我有一种蛮力的方法,基本上猜测了组的不同排列,直到最终将每个人都以不同的群体结束为止。这种方法的好处与您所表明的是,它不会遭受"最终的群体用完"。

它可能会变得慢 - 但是对于每组8组和4个成员,它很快。

样本数据

import random
import numpy as np
import pandas as pd
import itertools as it
random.seed(0)
numGroups=4
numMembers=4
data = list(it.product(range(numGroups),range(numMembers)))
df = pd.DataFrame(data=data,columns=['group','partid'])

解决方案

g = np.repeat(range(numGroups),numMembers).reshape((numGroups,numMembers))
In [4]: g
Out[4]: 
array([[0, 0, 0, 0],
       [1, 1, 1, 1],
       [2, 2, 2, 2],
       [3, 3, 3, 3]])
def reArrange(g):
    g = np.transpose(g)
    g = [np.random.permutation(x) for x in g]
    return np.transpose(g)
# check to see if any members in each old group have duplicate new groups
# if so repeat
while np.any(np.apply_along_axis(lambda x: len(np.unique(x))<numMembers,1,g)):
    g = reArrange(g)
df["newGroup"] = g.ravel()
In [7]: df
Out[7]: 
    group  partid  newGroup
0       0       0         2
1       0       1         3
2       0       2         1
3       0       3         0
4       1       0         0
5       1       1         1
6       1       2         2
7       1       3         3
8       2       0         1
9       2       1         0
10      2       2         3
11      2       3         2
12      3       0         3
13      3       1         2
14      3       2         0
15      3       3         1

相关内容

  • 没有找到相关文章

最新更新