Я пытаюсь реализовать архитектуру гидранета, используя tensorflow.keras.applications EfficientNetB0. Цель этой архитектуры - разделить сеть на две части (первая часть: магистраль, вторая часть: головная). Затем входное изображение должно быть подано в магистраль только один раз, а его выходные данные должны быть сохранены. Впоследствии этот вывод должен быть передан непосредственно в головы (может быть больше одного в зависимости от количества классов, которые нужно классифицировать). Оптимальный подход:
- Я не хочу перерисовывать всю модель для каждой головы.
- Магистраль должна выполняться только один раз.
Если вы уже ознакомились с этим сообщением на форуме: keras-give-input -to-intermediate-layer-and-get-final-output, но представленные решения либо требуют перекодировки головы, либо не работают.
Я пробовал следующее:
from tensorflow.keras.applications import EfficientNetB0 as Net
from tensorflow.keras.models import Model
split_idx = 73
input_shape = (250, 250, 3) # use depth=3 because imagenet is trained on RGB images
model = Net(weights="imagenet", include_top = True)
# Approach 1:
# create the full network so we can train on it
model_backbone = keras.models.Model(inputs=model.input, outputs=model.layers[split_idx].output)
# create new model taking the output from backbone as input and creating final output of head
model_head = keras.models.Model(inputs=model.layers[split_idx].output,
outputs=model.layers[-1].output)
# Approach 2:
# create function for feeding input through backbone
# the function takes a normal input image as input and returns the output of the final backbone layer
create_backbone_output = K.function([model.layers[0].input], model.layers[split_idx].output)
# create function for feeding output of backbone through heads
create_heads_output = K.function([model.layers[split_idx].output],
model.output)
Но когда я пытаюсь выполнить это, я получаю ошибку отключения графика для обоих подходов:
WARNING:tensorflow:Functional model inputs must come from `tf.keras.Input` (thus holding past layer
metadata), they cannot be the output of a previous non-Input layer. Here, a tensor specified as input
to "model_5" was not an Input tensor, it was generated by layer block3b_drop.
Note that input tensors are instantiated via `tensor = tf.keras.Input(shape)`.
The tensor that caused the issue was: block3b_drop/Identity:0
---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
<ipython-input-33-64dd6f6430a1> in <module>
6 # create function for feeding output of backbone through heads
7 create_heads_output = K.function([model.layers[split_idx].output],
----> 8 model.output)
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\keras\backend.py in
function(inputs,
outputs, updates, name, **kwargs)
4067 from tensorflow.python.keras import models # pylint: disable=g-import-not-at-top
4068 from tensorflow.python.keras.utils import tf_utils # pylint: disable=g-import-not-at-top
-> 4069 model = models.Model(inputs=inputs, outputs=outputs)
4070
4071 wrap_outputs = isinstance(outputs, list) and len(outputs) == 1
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\training\tracking\base.py in
_method_wrapper(self, *args, **kwargs)
515 self._self_setattr_tracking = False # pylint: disable=protected-access
516 try:
--> 517 result = method(self, *args, **kwargs)
518 finally:
519 self._self_setattr_tracking = previous_value # pylint: disable=protected-access
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\keras\engine\functional.py in
__init__(self, inputs, outputs, name, trainable, **kwargs)
118 generic_utils.validate_kwargs(kwargs, {})
119 super(Functional, self).__init__(name=name, trainable=trainable)
--> 120 self._init_graph_network(inputs, outputs)
121
122 @trackable.no_automatic_dependency_tracking
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\training\tracking\base.py in
_method_wrapper(self, *args, **kwargs)
515 self._self_setattr_tracking = False # pylint: disable=protected-access
516 try:
--> 517 result = method(self, *args, **kwargs)
518 finally:
519 self._self_setattr_tracking = previous_value # pylint: disable=protected-access
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\keras\engine\functional.py in
_init_graph_network(self, inputs, outputs)
202 # Keep track of the network's nodes and layers.
203 nodes, nodes_by_depth, layers, _ = _map_graph_network(
--> 204 self.inputs, self.outputs)
205 self._network_nodes = nodes
206 self._nodes_by_depth = nodes_by_depth
~\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\keras\engine\functional.py in
_map_graph_network(inputs, outputs)
981 'The following previous layers '
982 'were accessed without issue: ' +
--> 983 str(layers_with_complete_input))
984 for x in nest.flatten(node.outputs):
985 computable_tensors.add(id(x))
ValueError: Graph disconnected: cannot obtain value for tensor
KerasTensor(type_spec=TensorSpec(shape=(None, 224, 224, 3), dtype=tf.float32, name='input_4'),
name='input_4', description="created by layer 'input_4'") at layer "rescaling_3". The following
previous layers were accessed without issue: []
Я знаю, что ошибка возникает из-за того, что предоставленный тензор не является входным тензором. Есть ли решение этой проблемы?