explode
например поможет избавится от списков. В целом одна и та же информация, может быть представлена в разном виде и в реляционных бд предпочтительнее (но не обязательно) иметь простые типы данных. to_pickle
, и соответственно read_pickle
для чтения. cofe = int(input('Сколько вы хотите кофе?: '))
flor = int(input('Введите на каком вы этаже:'))
if cofe in [1, 2, 3] and flor >= 100:
он оценивает первое условие как False и не переходит ко второму. (
pd.DataFrame({
'A':[1,2,3],
'B':[100,200]
})
)
(
pd.DataFrame({
'A':pd.Series([1,2,3]),
'B':pd.Series([100,200])
})
)
Не достающий элемент он заполнит пропущенным значением. class MyClass():
def __init__(self, *args):
self.args = list(args)
def __delitem__(self, key):
if key in self.args:
self.args.remove(key)
example = MyClass('ab', '12', 100, None)
print(example.args)
del example['12']
print(example.args)
df = pd.DataFrame({
'userID':[25,188,79],
'goalsID':[[1,2,4,5],[3,6],[1,9]]
})
(
df.loc[lambda x:x['goalsID'].apply(lambda x: 3 in x)]
)
print(df[['market_cap'] > 0])
print(df[df['market_cap'] > 0])
Это задача на классификацию?
Как подойти к задаче?брать и делать, так появятся более конкретные вопросы. Если абстрактно, нейронная сеть это механизм трансоформации данных, у тебя есть входные данные вложенный массив, на языке математики тензоры определенного порядка, если геометрические трансформации например скалярное произведение матриц (тензоров второго порядка), есть желаемый результат вектор из 4 значений которые можно интерпретировать как вероятности, есть функции потерь которые сравнивает "некая трансформация данных" была полезна уменьшила функцию потерь или нет, есть механизм настройки матрицы весов который позволяет понимать как увелечение или уменьшение определенного значения внутри вектора отражается на функции потерь.
Какие слои и структуры?Рекурентная нейронная сеть, функция активации relu, кроме последнего слоя там softmax или что типа того что бы можно трансформировать вывод в вектор вероятностей.
Для обучения планирую скармливать нейронке например 1000Без понятия тюнинг гиперпараметров, а batch size это один из параметров которые тюнятся, делаются после с наблюдением поведения других метрик на тренировочном и тестовом сете.
Надо ли как то предобрабатывать эти свечки или можно скармливать как есть OHLCV?Надо препроцессинг для time series необходим их много гугли, но однозначно надо.
print(df.replace('?',np.nan).astype(float)
Здесь во все фрейме делаешь замену а потом весь фрейм пытаешься привести к типу данных float.df_ = df.loc[:,[nuimeric_column1,numrec_column2]] = df.loc[:,[nuimeric_column1,numrec_column2]].replace('?',np.NaN).astype(float)
и затем группируй и т.д.(
df.assign(
numeric1=lambda x: x['numeric1'].replace('?',np.NaN).astype(float),
numeric2=lambda x: x['numeric2'].replace('?',np.NaN).astype(float)
)
.groupby('Category')
.agg(['mean','median'])
)
class A:
def __init__(self):
self.test = 'test'
class B:
@classmethod
def test(self):
return A().test
print(A().B.test())
Но код совершенно, бесполезный, точнее сказать абсурдный лучше бы ты привел простенький пример, что ты пытаешься сделать, было бы больше толку.